visant à protéger les mineurs des risques auxquels les expose l’utilisation des réseaux sociaux

Votes

Amendements

Amendement Vote / Lien Décision Résumé
Voir le PDF
Adopté 27/01/2026

Se justifie par son texte même. 

Voir le PDF
Non soutenu 26/01/2026

La protection des mineurs face aux réseaux sociaux ne peut reposer uniquement sur les algorithmes et les dispositifs techniques.

Il est indispensable de former les jeunes à la responsabilité de leurs actes derrière un écran, où l’anonymat apparent favorise trop souvent des violences verbales aux conséquences dramatiques.

Les comportements de cyberharcèlement peuvent détruire durablement des trajectoires de vie, conduire à des troubles psychiques graves, voire à des passages à l’acte irréversibles.

Cet amendement vise à inscrire explicitement dans l’éducation au numérique une pédagogie de la responsabilité, rappelant que les propos tenus en ligne engagent juridiquement leurs auteurs et peuvent entraîner des sanctions pénales.

Voir le PDF
Rejeté 26/01/2026

Cet amendement de repli vise à décaler l’entrée en vigueur de l’interdiction des téléphones portables au lycée à la rentrée 2027-2028, le temps de laisser aux établissements la possibilité de modifier leur règlement intérieur et de s’adapter à cette nouvelle contrainte. 

Voir le PDF
Rejeté 26/01/2026

Cet amendement vient exclure les élèves majeurs de l'interdiction du portable au lycée.

Voir le PDF
Adopté 26/01/2026

Le présent amendement propose de réécrire l’article premier.

Depuis plusieurs années, les pouvoirs publics sont engagés dans une action continue de protection des mineurs face aux risques avérés et documentés liés à l’usage de certains services numériques. Cette priorité s’est traduite au niveau européen par l’adoption du règlement du 19 octobre 2022 relatif à un marché unique des services numériques (règlement DSA), puis, au niveau national, par l’adoption de la loi du 21 mai 2024 visant à sécuriser et réguler l’espace numérique, qui a notamment permis la mise en place de dispositifs de vérification de l’âge pour l’accès à certains contenus. Dans la continuité de cette dynamique, la protection de l’enfance en ligne appelle désormais l’instauration d’un âge minimal pour l’accès aux réseaux sociaux.

Les services de réseaux sociaux en ligne constituent aujourd’hui un média d’audience massive auprès des jeunes et concentrent, à ce titre, des risques particulièrement élevés pour les enfants. Les travaux parlementaires menés sur le sujet, ainsi que le rapport de la commission d’experts « Écrans » remis en avril 2024, ont mis en évidence les menaces spécifiques que ces services font peser sur le développement, la santé et le bien-être des enfants et des adolescents. L’avis rendu le 16 décembre 2025 par l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail apporte à cet égard un éclairage déterminant pour fonder et justifier la présente politique publique. Il souligne que les risques associés aux réseaux sociaux ne tiennent pas uniquement aux contenus auxquels les mineurs peuvent être exposés, mais résultent également, de manière structurelle, de la conception même de ces services. Fondés sur des modèles économiques reposant sur la captation et la maximisation de l’attention des utilisateurs, les réseaux sociaux recourent à des mécanismes tels que la diffusion de contenus audiovisuels courts, l’enchaînement algorithmique de recommandations, les effets de spirale, les logiques de ciblage comportemental ou encore certaines modalités d’interaction sociale, qui peuvent exploiter les fragilités des utilisateurs, en particulier des plus jeunes. Le rapport de l’ANSES qualifie explicitement cette « conception comme source de risque ». Ces constats mettent en évidence que les risques liés aux réseaux sociaux vont bien au-delà des seules problématiques de contenus et concernent également les comportements en ligne, les interactions sociales, le profilage commercial, ainsi que les phénomènes de harcèlement, de cyberharcèlement, d’extorsion ou de manipulation. Les travaux de l’ANSES rejoignent en cela, dans des termes similaires, les conclusions de la mission « Enfants et écrans » de 2024, en soulignant que la logique de maximisation de l’engagement peut conduire à des parcours d’usage marqués par des effets de renforcement et de polarisation, exposant progressivement les utilisateurs à des contenus plus extrêmes ou plus clivants. Ces analyses convergent enfin avec celles formulées par plusieurs organisations internationales, notamment Amnesty International dans son rapport d’octobre 2025, confirmant le caractère systémique de ces risques et le rôle déterminant joué par l’architecture et les fonctionnalités mêmes des plateformes dans leur survenance, en particulier s’agissant des mineurs.

Dans le cadre du dialogue engagé avec la Commission européenne, l’adoption des lignes directrices relatives à l’application de l’article 28 du règlement DSA en matière de protection de l’enfance en ligne a consacré la pleine légitimité d’un État membre à fixer, dans son droit national, un seuil d’âge minimal pour l’accès à un réseau social. C’est sur ce fondement que le présent amendement propose de réécrire l’article 1er de la proposition de loi afin d’instaurer en France une règle générale fixant à 15 ans l’âge minimal pour accéder aux services de réseaux sociaux, dans le respect du cadre européen.  

Cette mesure poursuit un objectif de protection de l’enfance en ligne sans porter une atteinte disproportionnée à la liberté d’information des mineurs concernés, lesquels conservent un accès large à internet et peuvent notamment recourir aux moteurs de recherche pour consulter des sites dont les contenus sont publiés sous la responsabilité éditoriale de leurs éditeurs et légalement accessibles aux mineurs, lire des articles de presse, consulter des blogs, visionner des contenus audiovisuels proposés par des éditeurs de médias ou par des plateformes de partage de vidéos, écouter des programmes radio ou encore s’abonner à des lettres d’information. En outre, les informations diffusées par les éditeurs de presse et de médias sur leurs comptes de réseaux sociaux sont, dans la très grande majorité des cas, initialement publiées et librement accessibles sur leurs propres sites internet, auxquels les mineurs peuvent continuer d’accéder sans restriction. Ces services constituent des sources d’information alternatives et substituables aux réseaux sociaux. 

Par ailleurs, l’interdiction instituée par le présent amendement ne couvre pas l’ensemble des plateformes en ligne : les encyclopédies collaboratives en ligne, les répertoires éducatifs ou scientifiques, les plateformes de développement et de partage de logiciels libres, les services spécifiquement conçus pour un public mineur et dépourvus de fonctionnalités sociales ouvertes, ainsi que les services de messagerie privée fondés sur des échanges interpersonnels non publics, demeurent expressément exclus du champ de l’interdiction.

Afin de garantir l’effectivité de la règle posée par le présent amendement et d’éviter tout contournement par des effets de report, le champ d’application de l’interdiction est défini au plus près des usages réels des services numériques par les mineurs. Sont ainsi naturellement visés les principaux services de réseaux sociaux en ligne largement utilisés par les adolescents. Toutefois, le dispositif ne se limite pas à ces seules plateformes : il vise également les services qui, indépendamment de leur qualification commerciale, présentent les critères et fonctionnalités caractéristiques des réseaux sociaux, notamment lorsqu’ils permettent la création de comptes, l’interaction entre utilisateurs, la diffusion publique ou semi-publique de contenus ou la participation à des communautés d’utilisateurs. Peuvent ainsi être concernés des services lorsqu’ils permettent des interactions publiques, certaines fonctionnalités semi-publiques de services de messagerie instantanée, à l’exclusion stricte de la messagerie privée, ainsi que les fonctionnalités sociales intégrées à certains jeux vidéo en ligne lorsque ces fonctionnalités exposent les utilisateurs à des risques avérés en matière de contacts, de contenus ou d’interactions.

Les services de réseaux sociaux se fondent aujourd’hui majoritairement sur des déclarations d’âge, aisément contournables et insuffisantes pour garantir une protection effective des mineurs. Afin d’assurer l’effectivité de l’interdiction prévue par le présent amendement, le présent amendement s’inscrit dans le cadre européen posé par les lignes directrices de l’article 28 du DSA. La Commission considère que le recours à des restrictions d’accès fondées sur des méthodes de vérification de l’âge constitue une mesure appropriée et proportionnée pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs, pour divers services qui présentent un risque élevé pour les mineurs, et notamment lorsque le droit de l’Union ou le droit national fixe un âge minimal pour accéder à certains produits ou services, dont les services de réseaux sociaux en ligne. En établissant cet âge minimal à 15 ans, cet amendement s’inscrit dans ce cadre : les plateformes devront mettre en œuvre des dispositifs de vérification d’âge pour assurer l’effectivité de cette mesure.  

Ces lignes directrices fixent également à l’échelle européenne les critères attendus de conception des outils de vérification et d’estimation d’âge pour garantir l’équilibre entre le respect de la vie privée, la protection des données personnelles des utilisateurs et la robustesse de la vérification de l’âge. L'utilisation de méthodes efficaces d'assurance de l'âge devra être conforme aux principes posés par les lignes directrices : être précises, fiables, robustes, non intrusives et non discriminatoires.  Plusieurs technologies peuvent être envisagées pour garantir la sécurité de l’usager, comme les tiers de confiance ou les « zero-knowledge proof ».

Les dispositifs d’assurance de l’âge devront être opérationnels à la date d’entrée en vigueur de la loi et conformes aux critères techniques définis par les lignes directrices adoptées par la Commission européenne pour l’application de l’article 28 du règlement DSA. 

Il existe déjà un écosystème d’outils et des technologies d’estimation ou de vérification d’âge, qui sont, pour certains, utilisés sur d’autres services que les services de réseau social pour vérifier l’accès à ces sites ou pour limiter l’accès à certains contenus préjudiciables. Des solutions d’estimation d’âge sont ainsi utilisées sur des sites à caractère pornographique ou sur certains services de réseaux sociaux pour limiter l’accès à des contenus qui présentent des risques élevés pour les mineurs. 

Complémentairement à cet écosystème, ces exigences s’inscrivent dans une dynamique européenne plus large visant à développer des solutions techniques à la fois protectrices et interopérables. À ce titre, des travaux sont conduits au niveau européen, notamment dans le cadre d’expérimentations initiées par la Commission, auxquelles la France participe activement en tant que pays pilote. Ces travaux portent en particulier sur le dispositif dit de « mini-wallet », destiné à permettre la transmission d’un signal d’âge strictement limité à l’atteinte ou non du seuil requis, sans communication de données d’identité supplémentaires. L’objectif est une mise à disposition de ce dispositif auprès du public à l’horizon 2026.


Concrètement, le présent amendement procède ainsi à une réécriture générale de l’article 1er de la proposition de loi. Il vise à insérer un nouvel article dans la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique afin d’établir l’interdiction d’accès aux réseaux sociaux pour les mineurs de moins de quinze ans, conformément au cadre fixé par le règlement DSA et par les lignes directrices de la Commission européenne relatives à son article 28.

La catégorie des réseaux sociaux visés par la règle d’interdiction est définie par référence aux définitions portées par le droit de l’Union au sein du règlement DSA ainsi que du règlement du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique, dit règlement DMA (Digital Markets Act). Le dispositif prévoit par ailleurs une disposition expresse pour le traitement des comptes de réseaux sociaux créés avant la date d’entrée en vigueur de la loi et exclut du champ d’application les encyclopédies et répertoires en ligne éducatifs à but non lucratif. Le régime de sanction est strictement placé dans le cadre de gouvernance du règlement DSA, en confiant la mission de contrôle à l’Autorité de régulation de la communication audiovisuelle et numérique (ARCOM), dans les conditions prévues par la loi dite « SREN » et par les prérogatives qui sont les siennes au titre du règlement DSA.

Voir le PDF
Retiré 26/01/2026

La protection des mineurs ne peut reposer uniquement sur les plateformes. Les parents doivent être pleinement responsabilisés. Cet amendement vise à sanctionner les comportements consistant à contourner sciemment les règles d’âge, ce qui affaiblit gravement l’efficacité du dispositif et expose les enfants à des risques avérés.

Voir le scrutin 26/01/2026 00:00
Rejeté 26/01/2026

 

L’encadrement de l’usage des réseaux sociaux par les mineurs repose aujourd’hui largement sur les parents, sans que ceux-ci disposent toujours des outils adaptés pour accompagner concrètement leurs enfants. Dans de nombreux cas, les dispositifs de contrôle existants sont peu lisibles, difficiles d’accès ou conditionnés à la création d’un compte personnel par le parent sur le service concerné, ce qui constitue un frein majeur.

Le présent amendement vise à renforcer la capacité effective des représentants légaux à jouer pleinement leur rôle éducatif dans l’environnement numérique, sans porter atteinte à l’autonomie progressive du mineur.

 

Voir le scrutin 26/01/2026 00:00
Adopté 26/01/2026


Les mineurs sont aujourd’hui exposés, sur les réseaux sociaux, à une pression commerciale continue : publicité ciblée, placements de produits, contenus de créateurs sponsorisés, recommandations algorithmiques orientant vers des produits ou services parfois inadaptés à leur âge. Cette exposition est d’autant plus problématique que les adolescents disposent d’outils limités pour identifier la nature publicitaire d’un contenu et prendre du recul face aux injonctions de consommation qui leur sont adressées.

Certains produits ou services, régimes extrêmes, compléments alimentaires non encadrés, contenus liés au dopage, jeux d’argent déguisés, paris sportifs, produits de vapotage, etc., peuvent avoir des effets particulièrement délétères sur la santé physique ou mentale des mineurs, en favorisant troubles du comportement, anxiété, addictions ou mise en danger.

Le présent amendement vise à fixer deux exigences simples de protection :
- les fournisseurs de services de réseaux sociaux doivent garantir que les mineurs ne sont pas soumis à une pression commerciale excessive ;
- la promotion de produits ou services susceptibles d’altérer la santé physique ou mentale des mineurs est proscrite sur les interfaces spécifiquement destinées à ce public.

Voir le PDF
Rejeté 26/01/2026

Les réseaux sociaux reposent sur des mécanismes de conception dits « addictifs », particulièrement problématiques lorsqu’ils s’adressent à des mineurs. Comme le souligne Bruno Patino, auteur de La civilisation du poisson rouge, le modèle économique de ces plateformes se fonde sur la captation et la rétention maximale de l’attention des utilisateurs.

Le rapport de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs insiste sur le fait que ce modèle de « l’économie de l’attention » favorise la diffusion et la mise en avant de contenus radicaux, plus susceptibles de capter l’attention d’utilisateurs déjà sur-sollicités. Les interfaces construites autour de flux continus et de sollicitations répétées contribuent à l’apparition de comportements compulsifs et de risques accrus pour la santé mentale des mineurs.

Le présent amendement vise à protéger les mineurs de ces mécanismes en interdisant, pour les services de réseaux sociaux, les interfaces de conception persuasive qui ont pour objet ou pour effet d’encourager une utilisation intensive ou de générer des schémas comportementaux compulsifs, notamment au moyen de flux infinis de contenus ou de sollicitations automatiques de l’attention.

Il s’inscrit dans la droite ligne des recommandations n° 1 et 2 du rapport de la commission d’enquête sur les effets psychologiques de TikTok, qui préconisent l’interdiction des flux « addictifs » pour les mineurs et du défilement à l’infini de vidéos.

Voir le PDF
Adopté 26/01/2026

Introduit en commission, l'article 4 bis vise à insérer de nouvelles obligations de prévention aux représentants légaux, aux fournisseurs de services de réseaux sociaux en ligne exerçant leur activité en France et aux fournisseurs de téléphone mobiles et autres équipements terminaux de communications électroniques connectés à internet. Le fait d'imposer de nouvelles obligations à ces acteurs pourrait être de nature à contrevenir au Digital service act et au droit de l'UE. 

En sus, attribuer des missions de prévention et de sensibilisation aux fournisseurs sur leur propres services peut susciter des réserves. Confier ces missions à des institutions publiques et/ou indépendantes pourrait sembler plus adapté. 

C'est pourquoi le present amendement prévoit la suppression du nouvel article 4 bis. 

Voir le PDF
Adopté 26/01/2026

Les réseaux sociaux font l’objet de stratégies marketing agressives à destination des plus jeunes, notamment via les influenceurs. Or ces services présentent des risques avérés pour la santé mentale des mineurs. Il est incohérent de reconnaître ces dangers tout en autorisant leur promotion auprès des enfants. Cet amendement vise à mettre fin à cette contradiction.

Voir le PDF
Tombé 26/01/2026

Le présent amendement du Groupe Écologiste et Social vise à automatiquement inscrire sur la liste des services pour lesquels l'accès des mineurs de moins de 15 ans serait restreint les services de réseaux sociaux en ligne qui proposent des interfaces problématiques pour les mineurs. 

C'est le cas en particulier des services: 

- qui exposent les mineurs à des contenus inappropriés ; 

- dont les suggestions sont basées sur le profilage des mineurs ; 

- qui mettent à disposition un service conversationnel personnalisé basé sur une intelligence artificielle ; 

- qui ne garantissent pas la transparence du fonctionnement de leurs algorithmes. 

 

Cet amendement facilitera l'inscription de ces réseaux sociaux sur la liste établie par un décret en Conseil d’État pris après avis de l’Autorité de régulation de la communication audiovisuelle et numérique. 

Voir le PDF
Retiré 26/01/2026

Le présent sous-amendement vise à renforcer la lisibilité et l’effectivité de l’interdiction d’accès aux réseaux sociaux pour les mineurs de moins de quinze ans.

En fixant une périodicité minimale d’actualisation, il vise à garantir que les services nouvellement apparus ou ayant fait évoluer leurs pratiques puissent être pris en compte dans des délais raisonnables, notamment lorsqu’ils sont susceptibles de présenter des risques pour les mineurs.

Il contribue ainsi à prévenir tout contournement durable du cadre légal et à assurer une application dynamique et effective des mécanismes de protection des mineurs, en cohérence avec l’objectif de responsabilité poursuivi par le législateur.

 

 

Voir le PDF
Rejeté 26/01/2026

Dans son avis rendu sur la présente proposition de loi, le Conseil d’État indique "qu’en raison de l’ampleur des définitions, l’interdiction générale et absolue d’accès des mineurs de moins de quinze ans aux réseaux sociaux en ligne est susceptible de s’appliquer […] à des services en ligne pour lesquels, à raison de leur contenu ou de leur mode de fonctionnement, il n’est justifié d’aucun risque sur la santé et la sécurité des mineurs, tels par exemple que […] des jeux en ligne proposant des espaces ou des fonctionnalités collaboratives et sociales".


En l'état, l'écriture proposée risque de créer par effet de bord l'interdiction aux mineurs de moins de 15 ans des jeux vidéo en ligne qui ne présentent pas de danger pour eux, leurs fonctionnalités sociales étant marginales. 


Ce sous-amendement permet ainsi de recentrer le présent texte de loi sur les services de réseau social en ligne qui présentent réellement un "danger pour l’épanouissement physique, mental ou moral des mineurs de quinze ans" ainsi que le préconise le Conseil d’État, tout en évitant d’inclure ceux qui n'en présentent objectivement aucun.

Voir le PDF
Rejeté 26/01/2026

Par cet amendement, le groupe LFI rappelle son opposition totale à la mesure d'interdiction des réseaux sociaux aux moins de 15 ans, qui relève avant tout d'un démagogisme numérique.

Tout d'abord, cette mesure est particulièrement attentatoire aux droits fondamentaux en ligne. En effet, elle remettrait en cause des principes cardinaux comme celui du droit à l'anonymat en ligne - principe régulièrement affirmé en droit national et européen (par exemple, le considérant 14 de la directive e-commerce no 2000/31 précise que « La présente directive ne peut pas empêcher l'utilisation anonyme de réseaux ouverts tels qu'Internet »). Par ailleurs, les critères selon lesquels a été fixé la majorité numérique sont particulièrement flous et semblent être en réalité totalement arbitraires : un contenu considéré comme dangereux et/ou illégal est-il ainsi plus acceptable à 15 ans et 1 jour qu'à 14 ans et 364 jours ? D'autant plus que cette majorité numérique est différente selon les différents pays – rien qu’au sein de l’Union européenne, celle-ci varie selon les différents pays entre 13 et 16 ans (par exemple, 14 ans en Espagne ou encore 13 ans au Danemark).

De plus, elle est facilement contournable via divers dispositifs techniques tels que les « Virtual Private Network » (VPN), dont l'objectif initial est de renforcer la protection de ses données lors d’une connexion Internet et notamment utilisé pour contourner des systèmes de censures numériques mis en place dans certains pays. Or, ces derniers peuvent également être utilisé pour contourner la mesure d'interdiction prévue au présent article, la rendant de fait inapplicable.

En réalité, ces mesures représentent un véritable renoncement à réguler les réseaux sociaux, transférant la responsabilité des conséquences de leurs usages sur les utilisateurs et utilisatrices. Même les conclusions de la commission d'enquête sur les effets psychologiques de TikTok sur les mineurs publié en septembre dernier et à l'origine de la présente proposition de loi le soulignait (p.28) : « Nous ferions d’abord reposer la charge de la responsabilité sur les jeunes plutôt que sur l’entreprise privée qui est à l’origine du problème ». L’UNICEF souligne également que « Les gouvernements doivent veiller à ce que les lois et réglementations relatives à l’âge ne se substituent pas aux obligations des entreprises d’investir dans la conception de plateformes plus sûres et dans une modération efficace des contenus ». Or, aucune mesure de la présente proposition de loi ne s'y attaque - alors qu'il s'agit du coeur du problème. La nouvelle rédaction issue de l'avis du Conseil d'Etat du 8 janvier 2026 rend ce transfert de responsabilité encore plus explicite puisque désormais, l'interdiction pèse directement sur les mineurs de moins de 15 ans qui ne peuvent pas avoir un compte sur les réseaux sociaux (alors qu'auparavant, cette obligation incombait aux plateformes, même si cette rédaction n'était pas non plus satisfaisante).

Enfin, et alors que cette mesure particulièrement liberticide est notamment justifiée au nom de la protection de la santé mentale des mineurs, qui est un objectif que nous ne remettons évidemment pas en cause dans l'absolu, faut-il rappeler qu'une véritable politique publique en la matière passe avant tout par l'augmentation des moyens alloués au système de soins ? Or, l'inaction de la Macronie en la matière est palpable, et on se retrouve aujourd'hui dans une situation de déficit chronique : ainsi, à titre d'illustration, en matière de santé scolaire, on ne compte qu'environ un médecin scolaire pour 13 000 élèves, un psychologue pour 1 500 élèves et un infirmier pour 1 300 élèves. En ce qui concerne les médecins scolaires, entre 2018 et 2023, le ministère de l’éducation nationale a recruté seulement 133 nouveaux médecins pour 300 postes offerts, soit un taux de couverture de seulement 44 %.

Pour toutes ces raisons, nous considérons que seule une approche combinant la prévention (en milieu scolaire et en dehors) et une véritable politique publique d'accompagnement à la parentalité numérique ainsi qu'une véritable régulation des réseaux sociaux en questionnant leur modèle économique fondé sur l'économie de l'attention et la captation du temps disponible des utilisateurs au travers une conception addictive, est capable de lutter à long-terme contre les effets néfastes des réseaux sociaux tout en préparant les individus à vivre dans un monde de plus en plus connecté.

Voir le PDF
Rejeté 26/01/2026

Cette proposition de loi pose une interdiction fondamentale d’accès aux réseaux sociaux pour les mineurs de moins de 15 ans. Associée à un programme de sensibilisation tout au long de la scolarité, elle permettra aux jeunes d’accéder aux réseaux sociaux à partir de 15 ans avec une compréhension approfondie des enjeux et des risques liés à leur utilisation. Il convient toutefois de souligner qu’à 15 ans un adolescent n’est pas encore pleinement autonome ni indépendant. Jusqu’à sa majorité il reste en effet sous la responsabilité de ses parents, qui doivent pouvoir exercer un droit de regard sur les activités de leur enfant, dans le respect de la vie privée mentionnée à l’article 9 du code civil. 

Il est à ce titre essentiel de conserver une analogie avec la vie courante. En effet, si l’article 1148 du code civil autorise les mineurs à accomplir seuls des « actes courants autorisés par la loi ou l’usage », comme certains achats, de nombreuses activités nécessitent l’autorisation du représentant légal. Ainsi en va-t-il tout simplement des activités extrascolaires. 

Compte tenu des effets dévastateurs et délétères des réseaux sociaux sur nos enfants, qui ne sont plus à démontrer, il ne parait pas concevable aujourd’hui que l’on puisse les laisser y accéder sans  contrôle ou autorisation parentale. Faute de jurisprudence étoffée qui préciserait spécifiquement si la création d'un compte sur un réseau social relève ou non d'un acte courant, il revient au législateur de prendre ses responsabilités et de le faire. Il parait nécessaire que nous changions de paradigme et de ce fait, que nous inscription dans la loi, comme le propose cet amendement, que la création d'un compte sur un réseau social n'entre pas dans cette catégorie d'acte courant. 

Voir le PDF
Rejeté 26/01/2026

Le présent amendement vise à renforcer la portée contraignante de l’article.

De nombreux changements pour cet article ont été soutenus par Madame la Rapporteure en Commission après un avis du Conseil d’État, considérant qu’il était contraire au Règlement sur les Services Numériques d’imposer de nouvelles obligations aux plateformes, mais qu’il était possible d’étendre le champs de ce qui était impossible. Un amendement du gouvernement vient désormais reprendre cette logique et réécrire une fois encore le texte.

Depuis sa seconde rédaction, et aux dires même de Madame la Rapporteur, esprit que porte encore l’amendement du gouvernement,  le présent article a vocation à faire remonter le contrôle par les plateformes de l’âge des utilisateurs dans le rang des priorités qu’elles se fixent dans l’application d’un règlement européen très insuffisamment appliqué.

La loi, qui doit respecter le droit européen, n’a pourtant pas vocation à s’adapter aux stratégies d’évitement des normes communautaires que mettent en place les plateformes. 

Tout en empruntant le même chemin que le gouvernement et la rapporteure pour éviter de contredire la compétence exclusive de l’Union européenne, cette rédaction permet de contraindre à une vérification d’âge effective pour garantir le respect du présent article.

Cette rédaction tend à renforcer le caractère coercitif du contrôle d’âge que les plateformes doivent mettre en place tout en reprenant la philosophie de l’avis du Conseil d’État destinée à éviter le conflit entre la loi et la compétence exclusive de l’Union européenne en matière d’obligations fixées aux plateformes.

 

Voir le PDF
Rejeté 26/01/2026

Ce sous-amendement vise à mettre en cohérence l’exposé des motifs de l’amendement de réécriture du gouvernement avec le dispositif proposé. 

Alors que l’exposé des motifs précise le champ de l’exclusion de l’interdiction des réseaux sociaux aux moins de 15 ans en y incluant les services spécifiquement conçus pour un public mineur, le dispositif ne cite qu’expressément les encyclopédies en ligne, les répertoires éducatifs ou scientifiques et les plateformes de développement et de partage de logiciels libres. 

Nous souscrivons à l’idée d’autoriser aux moins de 15 ans les plateformes spécifiquement adaptées aux mineurs, c’est pourquoi nous proposons de l’inscrire dans la loi. 

Voir le PDF
Rejeté 26/01/2026

Ce sous-amendement vise à mettre en cohérence l’exposé des motifs de l’amendement de réécriture du gouvernement avec le dispositif proposé. 

Alors que l’exposé des motifs précise le champ de l’exclusion de l’interdiction des réseaux sociaux aux moins de 15 ans en y incluant les messageries personnelles, le dispositif ne cite qu’expressément les encyclopédies en ligne, les répertoires éducatifs ou scientifiques et les plateformes de développement et de partage de logiciels libres. 

Nous souscrivons à l’idée d’autoriser aux moins de 15 ans les services de messagerie privée, c’est pourquoi nous proposons de l’inscrire dans la loi. 

Voir le PDF
Rejeté 26/01/2026

Ce sous-amendement de repli vise à préciser le champ d’application de l'interdiction des réseaux sociaux aux moins de 15 ans en laissant la possibilité à des plateformes de créer des outils sécurisés et sécurisants pour les mineurs, et à autoriser leur accès dès lors que l’activité de réseau social n’est que strictement accessoire à la plateforme. 

Voir le PDF
Rejeté 26/01/2026

Ce sous-amendement vise à préciser le champ d’application de l'interdiction des réseaux sociaux aux moins de 15 ans en laissant la possibilité à des plateformes de créer des outils sécurisés et sécurisants pour les mineurs, et à autoriser leur accès dès lors que l’activité de réseau social n’est qu’accessoire à la plateforme. 

Voir le PDF
Rejeté 26/01/2026

L’objet de ce sous-amendement est de réserver l’interdiction des réseaux sociaux aux mineurs de moins de 13 ans. 

Il s’agit premièrement d’un amendement de cohérence avec l’article 3, puisque son alinéa 5 rend obligatoire les messages de prévention indiquant que les téléphones et équipements mobiles connectés à internet, et donc aux réseaux sociaux, sont déconseillés aux moins de treize ans – et non pas aux moins de quinze ans. 

Ensuite, plusieurs plateformes fixent déjà actuellement une restriction pour les mineurs de moins de 13 ans, mais elles ne vérifient pas réellement l’âge de leurs utilisateurs. L’abaissement à ce seuil permettrait de faire respecter réellement cette norme. Comme l’indique le rapport de 2024 remis au Président de la République « des enfants âgés de moins de 13 ans sont inscrits en nombre sur des réseaux sociaux, pourtant en théorie interdits au moins de 13 ans. Ainsi, selon cette même étude, 58 % des jeunes de 11- 12 ans en 2021 avaient un compte sur au moins l’un des réseaux sociaux. De son côté, l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) a signalé que « 45 % des Français de 11‑12 ans sont inscrits » sur l’application TikTok.

L’interdiction des réseaux sociaux pour les moins de 15 ans souffre de plusieurs faiblesses : des exemples peu concluants à l’international (Australie, Chine, Corée...), des contournements possibles, un risque de dérive avec des restrictions plus générales des libertés sur internet. Une périmètre plus restreint ciblant d’abord les enfants de moins de 13 ans permet non pas de répondre à tous ces arguments, mais d’en amoindrir la portée. 

La résolution du Parlement européen en faveur d’une interdiction stricte de l’accès aux réseaux sociaux a été fixée à 13 ans, accompagnée de mesures d’encadrement et de limitation des risques pour les mineurs entre 13 et 16 ans. Cette mesure doit s’accompagner d’un large spectre de sensibilisation des enfants comme des parents afin de prévenir des usages non-raisonnés des écrans et des réseaux sociaux. Selon les études citées dans le rapport du Parlement européen, 97 % des jeunes se connectent à internet chaque jour et 78 % des 13 à 17 ans consultent leur appareil au moins une fois par heure. Dans le même temps, un mineur sur quatre présente un usage du smartphone qualifié de « problématique » ou « dysfonctionnel », c’est-à-dire assimilable à une dépendance.

C’est pourquoi cet amendement abaisse l’interdiction des réseaux sociaux de quinze à treize ans. 

Voir le PDF
Rejeté 26/01/2026

Il s'agit de mettre en cohérence l'exposé des motifs du Gouvernement et le dispositif de l'article.

La seule exclusion des encyclopédies en ligne, des répertoires éducatifs ou scientifiques et des plateformes de développement et de partage de logiciels libres est une bonne chose, même si les définitions restent faibles. 

Pour autant, rien dans les mentions actuelles du DSA, assurent que les services conçus pour des enfants ne soient pas exclus par l'article 1 tel qu'il est nouvellement rédigé par l'amendement du Gouvernement.

C'est pourquoi il est proposé cet ajout.

Voir le PDF
Rejeté 26/01/2026

Il y a un un consensus pour ne pas couper les mineurs des échanges interpersonnels avec leurs familles, notamment. Les messageries personnelles, même si elles intègrent des possibilités qui s'apparentent par certains aspects aux réseaux sociaux, sont une des conditions de la libre correspondance des mineurs, principe consacré dans les chartes internationales des droits de l'enfant.

Pour autant,  l’exposé des motifs précise le champ de l’exclusion de l’interdiction des réseaux sociaux aux moins de 15 ans en y incluant les messageries personnelles, le dispositif ne cite qu’expressément les encyclopédies en ligne, les répertoires éducatifs ou scientifiques et les plateformes de développement et de partage de logiciels libres. 

Il faut préserver ces possibilités d'échanges, de socialisation que sont les messageries personnelles, à la condition qu'elles soient bien régulées effectivement par l'Europe.

Voir le scrutin 26/01/2026 00:00
Rejeté 26/01/2026

Par cet amendement, le groupe LFI réaffirme son opposition à l'interdiction des réseaux aux moins de 15 ans, qui est avant tout une mesure de communication tendant à faire croire que le Gouvernement s'est saisie du sujet.

Les raisons de notre opposition totale à cette mesure sont nombreuses (mesure liberticide affaiblissant la protection des données personnelles des utilisateurs, inapplicabilité de la mesure car facilement contournable avec l'usage de dispositifs techniques tels que les VPN, déplacement de la responsabilité de l'exposition aux contenus dangereux voires illicites des plateformes vers les utilisateurs...) et semblent être vérifiées empiriquement. L'exemple de l'Australie en la matière est particulièrement éclairant.

Le 28 novembre 2024 le Parlement australien a approuvé un texte visant à obliger les différentes plateformes de réseaux sociaux telles que X, TikTok, Instagram ou Facebook à prendre « des mesures raisonnables » pour interdire aux mineurs de moins de 16 ans de conserver ou de créer un compte, et à prévoir des amendes en cas de non-respect de cette obligation (environ 28 millions d'euros). Or, dès son examen, les limites du texte avaient été soulevées : les contours flous de son application car le texte ne fournit quasiment aucun détail sur ses modalités d’application concrètes, les questions de protection des droits fondamentaux en ligne au vu des différentes solutions envisagées par les plateformes numériques pour tenter de contrôler l’âge de leurs utilisateurs (recours à un tiers extérieur qui détient les informations personnelles des utilisateurs, demander à l’utilisateur de se prendre en selfie, surveillance des habitudes de consommation des utilisateurs pour tenter de déduire leur âge comme par exemple, contrôler les contenus consultés ou encore voir les messages d’anniversaires reçus…), ou encore la question du contournement de ces mesures avec les VPN... D’ailleurs, comme une forme d'aveu du Gouvernement australien, celui-ci a rapidement reconnue qu'« Aucune solution ne sera probablement efficace à 100 % tout le temps ».

A peine un mois après son entrée en vigueur le 10 décembre 2025, la presse rapporte ainsi déjà que de nombreux utilisateurs ont recours à diverses techniques pour faire face à cette nouvelle interdiction : migration vers des plateformes plus petites et non concernées à ce stade par cette obligation (Coverstar, Lemon8, Yope, Rednote...), usage d'un VPN, recours à des proches plus âgés pour passer les filtres de vérification de l'âge (scan de visage...)... Ainsi, le cas australien tend à confirmer l'inefficacité de cette mesure, et la nécessité de mettre en place une véritable politique de régulation des plateformes numériques, accompagné d'un renforcement de la prévention des risques associés.

Voir le PDF
Rejeté 26/01/2026

Il s'agit de laisser la possibilité aux plateformes et services de créer des dispositifs spécifiquement destinés aux jeunes et totalement sécurisés, plutôt que de laisser les mineurs se connecter aux seuls réseaux adultes, sans identification.

Il faut donc encourager les plateformes à créer des outils sécurisés et sécurisants pour les mineurs, spécifiques, et à autoriser leur accès dès lors que l’activité de réseau social n’est que strictement accessoire à la plateforme. 

 

Voir le PDF
Rejeté 26/01/2026

Par cet amendement, le groupe LFI réitère son soutien à une approche préventive des risques posés par une surexposition incontrôlée aux écrans et aux contenus qui s'y affichent.

Supprimé en commission sur des considérations qui n'avaient aucun lien avec le fond des dispositions du présent article, ce dernier prévoit notamment la diffusion d'une information à caractère sanitaire dans les messages publicitaires en faveur de services de réseaux sociaux et est inspirée d'une obligation similaire applicable en matière de publicité en faveur de certains aliments ou boissons (art. L. 2133-1 du code de la santé publique : « les messages publicitaires en faveur de boissons avec ajouts de sucres, de sel ou d’édulcorants de synthèse ou de produits alimentaires manufacturés doivent contenir une information à caractère sanitaire »). Or, dans le cadre des travaux de la commission d'enquête sur les effets psychologiques de TikTok sur les mineurs, Mme Sarah Sauneron, directrice générale de la santé par intérim, indique que : « ces messages publicitaires font l’objet d’évaluations rigoureuses menées par l’Institut national de la santé et de la recherche médicale (Inserm) et par Santé publique France (SPF). Les études démontrent que ces messages, mis en place depuis 2007, ont significativement contribué à une meilleure connaissance des repères nutritionnels, désormais bien intégrés par la population ». Par conséquent, l'extension de ce principe aux réseaux sociaux ne peut qu'être bénéfique et apporter des éléments supplémentaires aux familles sur les risques que leur utilisation excessive et incontrôlée posent.

Par ailleurs, la mention "Déconseillé aux mineurs de moins de 13 ans" sur les emballages permettra également aux familles souhaitant doter leurs enfants d'un smartphone de prendre conscience des potentiels risques liés à leur usage - en leur laissant toutefois la liberté de fixer les limites en toute connaissance de cause, dans le respect de l'autorité parentale qu'ils exercent sur leurs enfants.

Néanmoins, nous rappelons que cette approche préventive doit absolument être couplée avec une politique ambitieuse de régulation du fonctionnement des plateformes, fondées sur la captation de l'attention à travers l'usage d'outils numériques sophistiqués (comme des algorithmes de recommandations), qui créé des risques majeurs pour les mineurs, mais également pour l'ensemble des utilisateurs.

Voir le PDF
Rejeté 26/01/2026

Par cet amendement, le groupe LFI souhaite évaluer les effets de l'interdiction des écrans aux moins de 3 ans, afin d'établir un bilan précis des effets positifs et négatifs engendrés par cette mesure.

Prévu par l'arrêté du 2 juillet 2025 sur l'interdiction des écrans dans les lieux d'accueil pour jeunes enfants, l'examen du texte en commission a permis d'inscrire son principe dans la loi, lui conférant ainsi un niveau de protection juridique supérieure. Si de nombreuses études ont mis en évidence le caractère délétère d'une exposition trop précoce des enfants aux écrans, il nous semble néanmoins indispensable de disposer d'une évaluation de cette interdiction dans les lieux d'accueil pour enfants afin notamment d'établir les potentielles conséquences que cela pourrait poser en termes d'organisation et d'accueil des familles. Ainsi, le rapport permettra le cas échéant, de proposer des potentielles modifications du cadre juridique applicable afin de prendre en compte les difficultés rencontrées sur le terrain par l'interdiction des écrans.

Voir le PDF
Rejeté 26/01/2026

Par cet amendement, le groupe LFI souhaite souligner l'importance d'adopter une approche préventive des risques liés aux usages du numérique, et notamment des réseaux sociaux.

Face à une société de plus en plus numérisée, il semble illusoire d'interdire purement et simplement à une catégorie ou un groupe spécifique de la population l'usage d'outils numériques au prétexte des risques que cela pourrait causer. En effet, cela poserait de nombreuses questions de préservation des droits fondamentaux en ligne (comme le droit à l'anonymat), mais également d'applicabilité concrète de la mesure (l'usage de certains outils comme le VPN permettant de contourner ce type de législation) et d'absence de mesures visant à réguler les plateformes elle-même, qui sont les premières responsables de ces dérives en raison de leur modèle économique fondé sur la captation de l'attention et qui entraîne une surexposition aux contenus clivants, dangereux et/ou illicites pour générer des revenus (notamment publicitaires). Dans ce contexte, il nous semble indispensable de renforcer l'éducation au numérique - seule façon de doter durablement les individus des bons réflexes face aux écrans.


Cette prévention est d'autant plus justifiée que son usage est déjà fortement développé au sein de l'Education nationale. En effet, on assiste à la multiplication d'initiatives structurantes sur le sujet (« Stratégie du numérique pour l’éducation » (2023-2027) qui a été rejetée en CSE en raison notamment de la place prépondérante qu'elle donne aux acteurs de la Edtech et participant ainsi à la privation du service public de l’enseignement ou encore d’un « cadre d’usage de l’intelligence artificielle en éducation ») ainsi que de sa présence dans le quotidien des élèves (consultation de Pronote et de leur environnement numérique de travail (ENT), accès aux ressources numériques), et qui doit donc logiquement s'accompagner en parallèle d'une prévention sur les risques encourus.

Dans ce contexte, nous ne pouvons que désapprouver la suppression du présent article en commission, et demandons son rétablissement dans sa version initiale - accompagnée évidemment des moyens humains et financiers nécessaires à son application concrète, alors que le budget prévu dans le PLF 2026 prévoit à nouveau de nombreuses coupes budgétaires qui risquent de menacer l'effectivité de l'enseignement de l'éducation au numérique.

Voir le PDF
Tombé 26/01/2026

Par cet amendement de cohérence, le groupe LFI réaffirme l'importance du rôle des personnels de l'Education nationale, et notamment les enseignants, en matière de prévention des risques liés à l'usage du numérique.

L'usage du numérique à l'école est déjà omniprésent. En effet, outre l'inscription dans le code de l'éducation à l'article L. 312-9 du principe selon lesquel les élèves bénéficient d'une formation à l'utilisation responsable des outils et des ressources numériques, de façon très concrète, ces derniers font usage de nombreux outils numériques au quotidien - à travers par exemple l'usage de Pronote et leur environnement numérique de travail (ENT). Dans ce contexte, les enseignants sont les plus à même de faire de la prévention auprès de leurs élèves sur les différents risques encourus en ligne : conception addictive des plateformes pour retenir l'attention des utilisateurs (algorithmes de recommandation...), nécessité de protéger ses données personnelles en ligne, risques psychosociaux liés à un usage incontrôlé...

Cette inscription des enseignants parmi les responsables de la prévention ne doit néanmoins pas faire oublier qu'elle doit s'accompagner des moyens nécessaires pour la rendre effective. Cette question des moyens est d'autant plus centrale que l'examen actuel du projet de loi de finances pour 2026 prévoit en matière éducative des coupes budgétaires particulièrement importantes, comme la suppression de 4 018 postes d'enseignants, alors même qu'il est déjà difficile aujourd'hui de terminer l'étude du programme scolaire en raison notamment du manque de professeurs présents dans les classes. Par conséquent, si l'adoption de cet article de principe va dans le bon sens, elle doit s'accompagner des moyens nécessaires pour ne pas rester lettre morte.

Voir le PDF
Tombé 26/01/2026

Par cet amendement, le groupe LFI souhaite insister sur la nécessité de faire de la prévention vis-à-vis des conceptions addictives des plateformes, qui expliquent en grande partie les difficultés posées aujourd'hui par l'usage des écrans et des réseaux sociaux.

Les principales plateformes numériques utilisées aujourd'hui reposent sur le même modèle économique : la captation de l'attention de leurs utilisateurs, afin de la monétiser (ventes d'espaces publicitaires...). Or, et pour augmenter toujours plus leurs profits, ces dernières développent des outils toujours plus efficaces (comme les algorithmes de recommandation ou le défilement automatique) pour retenir les utilisateurs sur leur plateforme, et n'hésitent pas à mettre en avant des contenus particulièrement clivants et choquants, voire dangereux et/ou illégaux, afin de créer de l'engagement (commentaires sur le contenu, "like"....) et de nous retenir toujours plus longtemps. Ainsi, c'est le modèle économique même des plateformes qui, couplé à un désinvestissement public massif de notre système de santé, notamment en matière scolaire, explique que selon un rapport récent publié le mardi 13 janvier 2026 par l'Agence nationale de sécurité sanitaire (Anses), l'usage des réseaux sociaux entraîne une grave dégradation de la santé des adolescents.

La prise de conscience des pouvoirs publics vis-à-vis de ce sujet n'est que très récente. Ainsi, à titre d'illustration, le Parlement européen a adopté à une large majorité le 12 décembre 2023 une résolution visant à dénoncer ces conceptions addictives, et appelant à de nouvelles règles européennes pour lutter efficacement contre celles-ci. Dans ce contexte, la France doit également jouer un rôle majeur pour faire avancer ce combat - tel est l'objet de cet amendement.

Voir le PDF
Tombé 26/01/2026

Par cet amendement, le groupe LFI souhaite souligner les risques accrus de discriminations de genre posés par un usage immodéré des réseaux sociaux et des écrans, qui pèsent davantage sur les filles que sur les garçons.

Le mardi 13 janvier 2026, l'Agence nationale de sécurité sanitaire (Anses) a publié une vaste étude sur les risques posés par les plateformes de réseaux sociaux sur la santé des 11-17 ans. Tout en rappellant des constats que nous partageons (nécessité de dénoncer le modèle économique des plateformes qui entraîne une captation à tout prix de l'attention des utilisateurs pour la monétiser...), l'étude souligne le fait que les cyberviolences et le cyberharcèlement sont des phénomènes qui touchent davantages les filles que les garçons en ligne. A titre d'illustration, la pratique du "sexting" non consenti (lorsque l’utilisateur subit une pression pour envoyer des images de nature intime) touche davantage les filles, et de manière plus générale, l'importance donnée par les réseaux sociaux aux contenus centrés sur l'image et l'apparence physique - sujets sur lesquels les filles et les femmes subissent de manière plus générale une pression de la société patriarcale - entraîne des complications sanitaires touchant davantage les filles que les garçons en ligne.

Dans ce contexte, l'étude propose notamment de mener des campagnes de santé publique en lien notamment avec la prévention des cyberviolences, ce qui est totalement cohérent avec nos positions sur le sujet. Néanmoins, le sujet ne pourra faire l'économie d'une réflexion plus structurelle sur la régulation des plateformes elle-même, qui constitue la véritable priorité de toute politique publique sur le sujet de la protection des mineurs et des utilisateurs de manière plus générale.

Voir le PDF
Tombé 26/01/2026

Le cyberharcèlement et les violences numériques sont largement facilités par la création de comptes anonymes ou frauduleux, utilisés pour contourner les règles, multiplier les attaques et échapper aux poursuites.

Cet amendement vise à responsabiliser les utilisateurs en imposant une vérification d’identité à la création des comptes, sans remettre en cause la liberté d’expression ni l’usage d’un pseudonyme public.

L’objectif est clair : mettre fin à l’impunité de ceux qui se cachent derrière de faux profils, tout en donnant aux autorités judiciaires les moyens d’agir efficacement contre les auteurs de violences numériques.

Voir le PDF
Tombé 26/01/2026

Par cet amendement, le groupe LFI réitère son opposition à l'extension du dispositif "Portable en pause" aux lycées.

Outre le fait que cette mesure d'interdiction revient de facto à renoncer à réguler les dérives de l'usage des écrans et des réseaux sociaux et à faire porter la responsabilité de leurs dérives sur les lycéens et lycéennes du pays - ce qui est un renoncement politique supplémentaire de la Macronie en matière éducative - le bilan de la généralisation du dispositif au collège à la rentrée 2025-2026 est une preuve supplémentaire de l'amateurisme avec lequel les décisions politiques sont prises par le Gouvernement.

En effet, alors que le dispositif a été généralisé au collège à la rentrée scolaire 2025, selon une enquête menée par le syndicat SNPDEN-UNSA en septembre dernier, seuls 8,5% des principaux de collèges se sont conformés au dispositif. A contrario, près de 67% ont assuré qu'ils ne comptaient pas appliquer de nouvelles mesures et 25% qu'ils ne savaient pas encore. Parmi les principales raisons évoquées, figurent notamment la question centrale du financement de cette mesure (alors que sa mise en place nécessiterait par exemple l'augmentation des dotations versées aux collectivités territoriales, et notamment les régions pour les lycées, afin de financer des équipements supplémentaires dans les établissements pour conserver les téléphones portables, mais que le budget, composé essentiellement de coupes budgétaires, actuellement examiné à l'Assemblée ne le prévoit pas) mais également de nombreuses questions très concrètes en termes d'organisation et de périmètre (responsabilité en cas de vol de l'appareil, recrutements supplémentaires d'assistants d'éducation pour faire appliquer l'interdiction...).

Par conséquent, nous proposons à travers cet amendement de revenir sur cette extension du dispositif au lycée, d'autant plus qu'en l'état actuel du droit (art. L.511-5 du code de l'éducation), une modification du règlement intérieur d'un lycée permet déjà d'"interdire l'utilisation par un élève des appareils [...] dans tout ou partie de l'enceinte de l'établissement ainsi que pendant les activités se déroulant à l'extérieur de celle-ci".

Voir le PDF
Tombé 26/01/2026

Par cet amendement, le groupe LFI souhaite maintenir l'état actuel du droit en matière d'interdiction du portable au lycée.

En effet, en l'état actuel du droit (art. L.511-5 du code de l'éducation), une modification du règlement intérieur d'un lycée permet déjà d'"interdire l'utilisation par un élève des appareils [...] dans tout ou partie de l'enceinte de l'établissement ainsi que pendant les activités se déroulant à l'extérieur de celle-ci". Par conséquent, il est déjà possible de l'interdire, et son extension est d'autant moins justifiée que les syndicats se sont majoritairement exprimés contre cette mesure.

Ainsi, lors d'une réunion du Conseil Supérieur de l'Education (CSE) le 7 janvier 2026, la quasi-unanimité des organises représentés ont rejeté cette mesure, le SNES dénonçant par exemple une mesure d'affichage, sans moyens nouveaux et une nouvelle instrumentalisation de l'école. Cela est d'autant plus incompréhensible que dans le même temps, l'Education nationale favorise le développement du numérique à l'école, à travers par exemple la publication de stratégies de développement comme la « Stratégie du numérique pour l’éducation » (2023-2027) qui a été rejetée en CSE en raison notamment de la place prépondérante qu'elle donne aux acteurs de la Edtech et participant ainsi à la privatisation du service public de l’enseignement ou encore d’un « cadre d’usage de l’intelligence artificielle en éducation » tout en développant son usage auprès des élèves et des parents (consultation de Pronote et de leur environnement numérique de travail (ENT), accès aux ressources numériques) - ce qui n’est pas sans poser de questions notamment en termes de renforcement du stress des élèves - rendant le discours global sur la place du numérique à l'école incompréhensible.

Pour toutes ces raisons, nous considérons qu'à minima, il est nécessaire de conserver le cadre actuel et de mener une véritable réflexion d'ampleur sur la place du smartphone et du numérique à l'école.

Voir le PDF
Rejeté 26/01/2026

Par cet amendement, le groupe LFI réitère son opposition à l'extension du dispositif, d'autant plus que la date d'entrée en vigueur à la rentrée scolaire 2026 est peu réaliste.

En effet, alors que le dispositif a été généralisé au collège à la rentrée scolaire 2025, selon une enquête menée par le syndicat SNPDEN-UNSA en septembre dernier, seuls 8,5% des principaux de collèges se sont conformés au dispositif. Parmi les principales raisons explicatives de cette situation, figure le manque de moyens spécifiques alloués à cette mesure, notamment par les collectivités territoriales à qui on applique à chaque budget des coupes toujours plus massives qui les empêchent de mener leurs missions à bien. Dans ce contexte, Sophie Vénétitay, secrétaire générale du SNES-FSU (RMC, 29/11/25) rappelle qu': « On ne peut pas vouloir généraliser une mesure qui est un échec » alors même que « Plus de la moitié des collèges n'ont pas pu appliquer le dispositif. Soit parce qu'ils n'ont pas eu les moyens de s'équiper ou tout simplement par manque de personnel ». Par conséquent, l'entrée en vigueur d'une généralisation du dispositif au lycée à la prochaine rentrée scolaire 2026 relève avant tout d'un voeu pieux.

Par ailleurs, des études internationales, comme celle menée par The Lancet en février 2025, tendent à remettre en cause l’efficacité des mesures d’interdiction des téléphones portables dans les établissements scolaires, qui n’améliorent ni les résultats scolaires, ni le bien-être des élèves. Et elle nous invite à minima, à prendre davantage le temps de la réflexion pour repenser de façon intelligente la place du numérique à l'école.

Voir le PDF
Tombé 26/01/2026

Le présent amendement vise à préciser la périodicité de mise à jour de la liste indicative des services publiée par l’ARCOM, en prévoyant explicitement qu’elle soit actualisée au moins une fois par an.

Cette précision poursuit un objectif de sécurité juridique et d’effectivité de la régulation. Dans un environnement numérique caractérisé par l’émergence rapide de nouveaux services et usages, l’absence de référence temporelle explicite est susceptible de fragiliser la portée opérationnelle de cette liste.

En fixant une périodicité minimale d’actualisation, l’amendement vise à garantir que les services nouvellement apparus ou ayant fait évoluer leurs pratiques puissent être pris en compte dans des délais raisonnables, notamment lorsqu’ils sont susceptibles de présenter des risques pour les mineurs.

Il contribue ainsi à prévenir tout contournement durable du cadre légal et à assurer une application dynamique et effective des mécanismes de protection des mineurs, en cohérence avec l’objectif de responsabilité poursuivi par le législateur.

Voir le PDF
Adopté 26/01/2026

Si l’ambition de l’article 6, visant à étendre aux lycées l’interdiction de l’utilisation des téléphones portables, est louable, elle paraît toutefois démesurée au regard des comportements et des besoins des élèves de cet âge.

De plus, cet article prévoit la possibilité de dérogations au profit des étudiants inscrits dans des formations de l’enseignement supérieur au sein des lycées, sans offrir de cadre équivalent pour les lycéens. Cette différence de traitement apparaît difficilement justifiable.

Plutôt que d’imposer une interdiction générale, il paraît préférable de créer des espaces d’usage restreint du téléphone, comme cela peut se faire dans certains établissements d’ores et déjà. Il s’agit de les responsabiliser davantage.

Par ailleurs, l’ENT constitue fréquemment un outil essentiel de communication entre l’établissement, les élèves et leurs parents. En cas de changement d’emploi du temps, d’annulation de cours ou d’incident dans la journée, il est nécessaire de pouvoir autoriser un accès ponctuel en journée. Une interdiction stricte et généralisée priverait les élèves de ce canal utile et pourrait entraver le bon fonctionnement de l’organisation scolaire.

En outre, une interdiction stricte dans les lycées pourrait avoir un effet contre-productif, en incitant certains élèves à quitter l’établissement pendant les pauses pour utiliser leur téléphone, alors que l’objectif est précisément de favoriser un usage encadré et sécurisé.

Le présent amendement vise donc à clarifier ces règles : il prévoit que le règlement intérieur doit définir précisément les lieux et conditions d’utilisation du téléphone portable, et que dans tous les autres lieux, son usage est interdit, sauf accord explicite de l’enseignant.

Voir le PDF
Rejeté 26/01/2026

Le présent article impose la création et la nomination, au sein de chaque établissement scolaire, de plusieurs référents numériques, qui peuvent être des CPE, des enseignants ou d’autres personnels de l’établissement, accessibles aux élèves et à leurs représentants légaux.

Si la formation à l’usage des outils numériques et la sensibilisation aux risques qui y sont associés sont déjà dispensées dans les établissements, il apparaît nécessaire de désigner des personnes ressources identifiées, aptes à répondre aux questions des élèves et de leurs familles, à accompagner la mise en œuvre des actions de sensibilisation et à veiller à la promotion d’usages responsables du numérique.

Les missions de ces référents, précisées par décret en Conseil d’État, permettront d’assurer une cohérence pédagogique, de renforcer la prévention des risques numériques et d’offrir un point de contact concret et continu pour l’ensemble de la communauté éducative.

Cette mesure vise à compléter la formation existante en offrant aux élèves et aux familles un accompagnement pratique et accessible, favorisant l’éducation à la citoyenneté numérique et la protection des mineurs dans l’usage des outils numériques.

 

 

Voir le PDF
Tombé 26/01/2026

Rédactionnel.

L’article 6 n’a pas pour objet d’introduire à l’article L. 511‑5 du code de l’éducation une interdiction générale et absolue de l’utilisation du téléphone mobile au sein des lycées. Comme cela est déjà prévu aujourd’hui pour les collèges, le règlement intérieur des lycées pourra déroger à cette interdiction dans certaines circonstances, notamment les usages pédagogiques, et dans certains lieux. Les exceptions en vigueur seront donc maintenues, en plus de celles qui s’appliquent aux étudiants qui relèvent de l’enseignement supérieur.

À l’issue de l’adoption de la proposition de loi, la rédaction du premier alinéa de l’article L. 511‑5 du code de l’éducation sera la suivante : « L’utilisation d’un téléphone mobile ou de tout autre équipement terminal de communications électroniques par un élève est interdite dans les écoles maternelles, les écoles élémentaires, les collèges et les lycées et pendant toute activité liée à l’enseignement qui se déroule à l’extérieur de leur enceinte, à l’exception des circonstances, notamment les usages pédagogiques, et des lieux dans lesquels le règlement intérieur l’autorise expressément. Dans les lycées dispensant des formations de l’enseignement supérieur, le règlement intérieur peut déroger à cette interdiction pour les étudiants. »

Voir le PDF
Rejeté 26/01/2026

Les auteurs de cet amendement partagent la philosophie de cet article visant à limiter l'utilisation du téléphone portable au lycée. Toutefois, inscrire son interdiction dans la loi dans les lycées est une mesure inefficace et redondante.

Inefficace, car les lycéens et lycéennes ont la possibilité de sortir de l'enceinte des établissements lors des pauses ce qui leur permet d'utiliser librement leur téléphone.

Redondante enfin, car la quasi totalité des établissements ont déjà interdit l'utilisation des portables au sein leur enceinte dans leurs règlements intérieurs. Il n'y a donc aucune raison de l'inscrire dans la loi.

Voir le PDF
Rejeté 26/01/2026

Les mesures adoptées par le Parlement n’auront aucune efficience si elles ne s’accompagnent pas d’un renforcement des moyens, notamment humain à travers des professionnels formés. C’est pourquoi cet amendement vise à observer si l’État met bien tous les moyens en œuvre pour accompagner le développement de la formation visée à l’article L. 312‑9 du code de l’Éducation.

Sans des professionnels formés, ces mesures ne seront que peu appliquées et les résultats insuffisants. C’est ce que cette demande de rapport défend.

Voir le PDF
Non soutenu 26/01/2026

La surexposition aux écrans constitue aujourd’hui un enjeu majeur de santé publique, particulièrement pour les enfants et les adolescents.

Les usages numériques intensifs et précoces sont associés à des effets désormais largement documentés : troubles du sommeil, sédentarité, obésité, anxiété, altération de l’attention, isolement social, exposition accrue à des contenus inadaptés ou violents, ainsi qu’au cyberharcèlement.

Dans ce contexte, il apparaît indispensable de renforcer les actions de prévention en amont, en impliquant directement les fabricants de dispositifs numériques. Ceux-ci jouent en effet un rôle déterminant dans la conception des interfaces et des usages, et doivent être pleinement associés à l’effort de prévention sanitaire.

Le présent amendement vise ainsi à inscrire, dès la conception des appareils, un message de prévention sanitaire visible par l’utilisateur, sans remettre en cause la liberté d’usage ni freiner l’innovation technologique.

À l’instar des messages de prévention existant dans d’autres domaines de santé publique, cette mesure repose sur une logique d’information et de responsabilisation. Elle constitue un levier simple, proportionné et efficace pour sensibiliser les utilisateurs — et en particulier les parents et les mineurs — aux risques liés à une consommation excessive des écrans, et contribuer à un environnement numérique plus protecteur et plus équilibré.

Voir le PDF
Rejeté 26/01/2026

Les cosignataires de cet amendement souhaitent rétablir cet article qui intègre de nouvelles dispositions afin de mieux sensibiliser la population sur les risques d’un usage incontrôlé des réseaux sociaux, notamment chez les plus jeunes.

Il ne peut y avoir de mesures d'interdiction sans des mesures de prévention et de sensibilisation aux effets nocifs qu'engendrent les algorithmes des réseaux sociaux.

Voir le PDF
Rejeté 26/01/2026

A travers cet amendement, ses auteurs souhaitent qu'un rapport puisse être remis au Parlement dans les trois années suivants la promulgation de cette proposition de loi afin d'évaluer si les usages des réseaux sociaux par les mineurs ont évolué et s'ils sont davantage sensibilisés aux dangers qu'ils représentent pour leur santé. 

Ce rapport aura également vocation à évaluer les résultats de l'interdiction du téléphone portable au collège et au lycée.

Voir le PDF
Rejeté 26/01/2026

Les auteurs de cet amendement ne sont pas favorables à l'inscription dans la loi de l'interdiction du téléphone portable dans les lycées, cette interdiction étant déjà présente dans les règlements intérieurs des établissements.

Cet amendement propose de reculer sa mise en oeuvre à la rentrée 2027-2028.

Voir le PDF
Rejeté 26/01/2026

Cet amendement vise à supprimer l’article 6.

Si les députés de notre groupe partagent l’intention louable de limiter l’exposition des écrans sur les plus jeunes, nous considérons que l’interdiction pure et simple des téléphones portables dans les lycées ne résoudra pas cette problématique mais risque d’alourdir la charge de travail des personnels éducatifs. Rappelons par ailleurs, cette interdiction est déjà possible et prévue par le code de l’éducation puisque les règlements intérieurs des lycées peuvent d’ores et déjà interdire les téléphones dans des espaces de l’établissement et pendant les activités à l’extérieur de celle-ci. 

À l’instar de la FCPE qui a publié sa déclaration préalable au CSE du 7 janvier, nous partageons le constat qu’« en pratique, nous savons cette mesure inapplicable et facilement contournable à l’occasion d’une sortie de l’établissement à l’inter-cours ou à la faveur d’un trou dans l’emploi du temps. Ce qui n’est pas possible dans la cour le sera quelques mètres plus loin devant l’entrée de l’établissement. Dans un lycée, concrètement puisque c’est le statut d’étudiant ou de lycéen qui fixera le droit ou l’interdit, des lycéens majeurs ne pourront pas consulter leur portable et des étudiants en BTS ou en prépa le pourront… nous souhaitons bien du courage aux équipes de vie scolaire, aux enseignants et équipes de direction pour faire respecter cette interdiction ». 

Au-delà des contournements très faciles d’une telle interdiction, de la difficulté de contrôler l’usage selon l’élève et du manque de moyens pour les personnels, subsiste une ambivalence à une telle interdiction alors même que les politiques autour du numérique à l’école ont été renforcées depuis plusieurs années. Plutôt qu’une énième interdiction, des moyens réels dédiés à l’éducation au numérique, la lutte contre le cyberharcèlement et la protection des données devraient être mis en place afin de répondre aux enjeux de notre époque. Il est difficilement envisageable d’opérer un retour en arrière dans notre société entièrement dédiée au numérique a fortiori pour des adolescents ou jeunes adultes parfois majeurs.      

Ainsi, le SNES-FSU, dénonce une mesure d’affichage, sans moyens nouveaux et une nouvelle instrumentalisation de l’école.

Le CSE réuni le 7 janvier a voté à la quasi unanimité (93 %) contre cette mesure. 

La méthode interroge également quand on sait que ce Conseil supérieur de l’Éducation nationale a été convoqué en urgence sans que la communauté éducative n’ait été associée à la réflexion en amont. Une telle réforme, qui touche au cœur du fonctionnement quotidien des établissements, ne peut être décidée sans un réel dialogue social et professionnel.

Enfin, alors que cette disposition devrait également figurer dans le projet de loi du Gouvernement, nous ne comprenons pas pourquoi nous légiférons aujourd’hui sur ce point.

Voir le PDF
Rejeté 26/01/2026

L’exposition précoce et intensive des enfants et adolescents aux écrans constitue un enjeu de santé publique. Les travaux scientifiques et les alertes des professionnels de l’enfance mettent en évidence ses effets négatifs sur le développement cognitif, l’attention, le langage, la concentration, ainsi que sur la santé mentale et physique.

Les chiffres disponibles confirment l’ampleur du phénomène. Selon l’enquête Ipsos 2024 pour le Centre national du livre, les jeunes de 7 à 19 ans consacrent dix fois plus de temps aux écrans qu’à la lecture. Dès l’âge de 2 ans, un enfant passe en moyenne 56 minutes par jour devant un écran (Santé publique France, septembre 2025). À l’adolescence, l’exposition dépasse 15 heures par semaine en ligne, avec près de deux heures par jour sur le seul réseau social TikTok (commission d’enquête sénatoriale, 2023).

La « pause numérique » instaurée dans le temps scolaire a permis de recréer des espaces de concentration et d’apaisement. Toutefois, son efficacité reste limitée par la poursuite massive des usages numériques sur les temps périscolaires et extrascolaires, ce qui affaiblit la cohérence des politiques publiques de prévention.

Le présent amendement est directement issu de la proposition de loi déposée au Sénat par Mme Agnès Evren et plusieurs de ses collègues. Il prévoit la possibilité d’interdire l’utilisation, par un mineur, d’un téléphone mobile ou de tout autre équipement terminal de communication électronique durant les temps d’activités périscolaires, ainsi que, plus largement, au sein des accueils collectifs de mineurs.

Voir le PDF
Adopté 26/01/2026

Le présent amendement propose de réécrire l’article premier.

Depuis plusieurs années, les pouvoirs publics sont engagés dans une action continue de protection des mineurs face aux risques avérés et documentés liés à l’usage de certains services numériques. Cette priorité s’est traduite au niveau européen par l’adoption du règlement du 19 octobre 2022 relatif à un marché unique des services numériques (règlement DSA), puis, au niveau national, par l’adoption de la loi du 21 mai 2024 visant à sécuriser et réguler l’espace numérique, qui a notamment permis la mise en place de dispositifs de vérification de l’âge pour l’accès à certains contenus. Dans la continuité de cette dynamique, la protection de l’enfance en ligne appelle désormais l’instauration d’un âge minimal pour l’accès aux réseaux sociaux.

Les services de réseaux sociaux en ligne constituent aujourd’hui un média d’audience massive auprès des jeunes et concentrent, à ce titre, des risques particulièrement élevés pour les enfants. Les travaux parlementaires menés sur le sujet, ainsi que le rapport de la commission d’experts « Écrans » remis en avril 2024, ont mis en évidence les menaces spécifiques que ces services font peser sur le développement, la santé et le bien-être des enfants et des adolescents. L’avis rendu le 16 décembre 2025 par l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail apporte à cet égard un éclairage déterminant pour fonder et justifier la présente politique publique. Il souligne que les risques associés aux réseaux sociaux ne tiennent pas uniquement aux contenus auxquels les mineurs peuvent être exposés, mais résultent également, de manière structurelle, de la conception même de ces services. Fondés sur des modèles économiques reposant sur la captation et la maximisation de l’attention des utilisateurs, les réseaux sociaux recourent à des mécanismes tels que la diffusion de contenus audiovisuels courts, l’enchaînement algorithmique de recommandations, les effets de spirale, les logiques de ciblage comportemental ou encore certaines modalités d’interaction sociale, qui peuvent exploiter les fragilités des utilisateurs, en particulier des plus jeunes. Le rapport de l’ANSES qualifie explicitement cette « conception comme source de risque ». Ces constats mettent en évidence que les risques liés aux réseaux sociaux vont bien au-delà des seules problématiques de contenus et concernent également les comportements en ligne, les interactions sociales, le profilage commercial, ainsi que les phénomènes de harcèlement, de cyberharcèlement, d’extorsion ou de manipulation. Les travaux de l’ANSES rejoignent en cela, dans des termes similaires, les conclusions de la mission « Enfants et écrans » de 2024, en soulignant que la logique de maximisation de l’engagement peut conduire à des parcours d’usage marqués par des effets de renforcement et de polarisation, exposant progressivement les utilisateurs à des contenus plus extrêmes ou plus clivants. Ces analyses convergent enfin avec celles formulées par plusieurs organisations internationales, notamment Amnesty International dans son rapport d’octobre 2025, confirmant le caractère systémique de ces risques et le rôle déterminant joué par l’architecture et les fonctionnalités mêmes des plateformes dans leur survenance, en particulier s’agissant des mineurs.

Dans le cadre du dialogue engagé avec la Commission européenne, l’adoption des lignes directrices relatives à l’application de l’article 28 du règlement DSA en matière de protection de l’enfance en ligne a consacré la pleine légitimité d’un État membre à fixer, dans son droit national, un seuil d’âge minimal pour l’accès à un réseau social. C’est sur ce fondement que le présent amendement propose de réécrire l’article 1er de la proposition de loi afin d’instaurer en France une règle générale fixant à 15 ans l’âge minimal pour accéder aux services de réseaux sociauxune règle de majorité numérique fixée à quinze ans pour l’accès aux services de réseaux sociaux, dans le respect du cadre européen. .

Cette mesure poursuit un objectif de protection de l’enfance en ligne sans porter une atteinte disproportionnée à la liberté d’information des mineurs concernés, lesquels conservent un accès large à internet et peuvent notamment recourir aux moteurs de recherche pour consulter des sites dont les contenus sont publiés sous la responsabilité éditoriale de leurs éditeurs et légalement accessibles aux mineurs, lire des articles de presse, consulter des blogs, visionner des contenus audiovisuels proposés par des éditeurs de médias ou par des plateformes de partage de vidéos, écouter des programmes radio ou encore s’abonner à des lettres d’information.

En outre, les informations diffusées par les éditeurs de presse et de médias sur leurs comptes de réseaux sociaux sont, dans la très grande majorité des cas, initialement publiées et librement accessibles sur leurs propres sites internet, auxquels les mineurs peuvent continuer d’accéder sans restriction. Ces services constituent des sources d’information alternatives et substituables aux réseaux sociaux.

Par ailleurs, l’interdiction instituée par le présent amendement ne couvre pas l’ensemble des plateformes en ligne : les encyclopédies collaboratives en ligne, telles que Wikipédia, les répertoires éducatifs ou scientifiques, les plateformes de développement et de partage de logiciels libres, les les services spécifiquement conçus pour un public mineur et dépourvus de fonctionnalités sociales ouvertes, comme YouTube Kids, ainsi que les services de messagerie privée fondés sur des échanges interpersonnels non publics, demeurent expressément exclus du champ de l’interdiction.

Afin de garantir l’effectivité de la règle posée par le présent amendement et d’éviter tout contournement par des effets de report, le champ d’application de l’interdiction est défini au plus près des usages réels des services numériques par les mineurs. Sont ainsi naturellement visés les principaux services de réseaux sociaux en ligne largement utilisés par les adolescents, tels que Instagram, TikTok, Facebook, LinkedIn, Pinterest ou encore Snapchat. Toutefois, le dispositif ne se limite pas à ces seules plateformes : il vise également les services qui, indépendamment de leur qualification commerciale, présentent les critères et fonctionnalités caractéristiques des réseaux sociaux, notamment lorsqu’ils permettent la création de comptes, l’interaction entre utilisateurs, la diffusion publique ou semi-publique de contenus ou la participation à des communautés d’utilisateurs. Peuvent ainsi être concernés des services tels que YouTube ou Twitch lorsqu’ils permettent des interactions publiques, certaines fonctionnalités semi-publiques de services de messagerie instantanée, comme les « communautés » proposées par WhatsApp, à l’exclusion stricte de la messagerie privée, ainsi que les fonctionnalités sociales intégrées à certains jeux vidéo en ligne massivement fréquentés par les mineurs, tels que Roblox, lorsque ces fonctionnalités exposent les utilisateurs à des risques avérés en matière de contacts, de contenus ou d’interactions.

Les services de réseaux sociaux se fondent aujourd’hui majoritairement sur des déclarations d’âge, aisément contournables et insuffisantes pour garantir une protection effective des mineurs. Afin d’assurer l’effectivité de l’interdiction prévue par le présent amendement, les plateformes concernées sont tenues de mettre en œuvre un dispositif de vérification ou d’estimation de l’âge de leurs utilisateurs. le En l’absence de tels mécanismes, les services de réseaux sociaux se fondent aujourd’hui majoritairement sur des déclarations d’âge, aisément contournables et insuffisantes pour garantir une protection effective des mineurs. Le présent amendement s’inscrit dans le cadre européen posé par les lignes directrices de l’article 28 du DSA. La Commission considère que le recours à des restrictions d’accès fondées sur des méthodes de vérification de l’âge constitue une mesure appropriée et proportionnée pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs, pour divers services qui présentent un risque élevé pour les mineurs, et notamment lorsque le droit de l’Union ou le droit national fixe un âge minimal pour accéder à certains produits ou services, dont les services de réseaux sociaux en ligne. En établissant cet âge minimal à 15 ans, cet amendement s’inscrit dans ce cadre : les plateformes devront mettre en œuvre des dispositifs de vérification d’âge pour assurer l’effectivité de cette mesure. 

Ces lignes directrices fixent également à l’échelle européenne les critères attendus de conception des outils de vérification et d’estimation d’âge pour garantir l’équilibre entre le respect de la vie privée, la protection des données personnelles des utilisateurs et la robustesse de la vérification de l’âge. L’utilisation de méthodes efficaces d’assurance de l’âge devra être conforme aux principes posés par les lignes directrices : être précises, fiables, robustes, non intrusives et non discriminatoires. Plusieurs technologiespeuvent être envisagées pour garantir la sécurité de l’usager, comme les tiers de confiance ou les « zero-knowledge proof ».

vise ainsi à faire peser sur les plateformes la responsabilité qui leur incombe, en cohérence avec l’importance de leurs services dans les usages numériques des mineurs et avec les risques spécifiques liés aux fonctionnalités sociales et interactives qu’elles proposent.

Les dispositifs de vérification ou d’estimationd’assurance de l’âge devront être opérationnels à la date d’entrée en vigueur de la loi et conformes aux critères techniques définis par les lignes directrices adoptées par la Commission européenne pour l’application de l’article 28 du règlement DSA, qui assurent un équilibre entre fiabilité de la vérification et respect de la vie privée et des données personnelles.

Il existe déjà un écosystème d’outils et des technologies d’estimation ou de vérification d’âge, qui sont, pour certains, utilisés sur d’autres services que les services de réseau social pour vérifier l’accès à ces sites ou pour limiter l’accès à certains contenus préjudiciables. Des solutions d’estimation d’âge sont ainsi utilisées sur des sites à caractère pornographique ou sur certains services de réseaux sociaux pour limiter l’accès à des contenus qui présentent des risques élevés pour les mineurs.

Complémentairement à cet écosystème, ces exigences s’inscrivent dans une dynamique européenne plus large visant à développer des solutions techniques à la fois protectrices et interopérables. À ce titre, des travaux sont conduits au niveau européen, notamment dans le cadre d’expérimentations initiées par la Commission, auxquelles la France participe activement en tant que pays pilote. Ces travaux portent en particulier sur le dispositif dit de « mini-wallet », destiné à permettre la transmission d’un signal d’âge strictement limité à l’atteinte ou non du seuil requis, sans communication de données d’identité supplémentaires. L’objectif est une mise à disposition de ce dispositif auprès du public à l’horizon 2026.

Complémentairement à cet écosystème, cCes exigences s’inscrivent dans une dynamique européenne plus large, au sein de laquelle sont conduits des travaux visant à développer des solutions techniques protectrices et interopérables, notamment à travers l’expérimentation initiée par la Commission, et pour lequel la en FranceFrance est un pays pilote, du dispositif dit de « mini-wallet », permettant la transmission d’un signal d’âge strictement limité à l’atteinte ou non du seuil requis, sans communication de données d’identité supplémentaires, en vue d’une mise à disposition au public à l’horizon 2026.

Concrètement, le présent amendement procède ainsi à une réécriture générale de l’article 1er de la proposition de loi. Il vise à insérer un nouvel article dans la loi n° 2004‑575 du 21 juin 2004 pour la confiance dans l’économie numérique afin d’établir l’interdiction d’accès aux réseaux sociaux pour les mineurs de moins de quinze ans, conformément au cadre fixé par le règlement DSA et par les lignes directrices de la Commission européenne relatives à son article 28.

La catégorie des réseaux sociaux visés par la règle d’interdiction est définie par référence aux définitions portées par le droit de l’Union au sein du règlement DSA ainsi que du règlement du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique, dit règlement DMA (Digital Markets Act). Le dispositif prévoit par ailleurs une disposition expresse pour le traitement des comptes de réseaux sociaux créés avant la date d’entrée en vigueur de la loi et exclut du champ d’application les encyclopédies et répertoires en ligne éducatifs à but non lucratif. Le régime de sanction est strictement placé dans le cadre de gouvernance du règlement DSA, en confiant la mission de contrôle à l’Autorité de régulation de la communication audiovisuelle et numérique (ARCOM), dans les conditions prévues par la loi dite « SREN » et par les prérogatives qui sont les siennes au titre du règlement DSA.

Voir le PDF
Adopté 26/01/2026

L’article 3 bis résulte a été introduit dans la proposition de loi en commission des affaires culturelles et de l’éducation. Il modifie le II de l’article L. 214‑1‑1 du code de l’action sociale et des familles, relatif aux obligations des personnes physiques ou morales qui assurent l’accueil du jeune enfant. Sept obligations sont énumérées, dont « [veiller] à la santé, la sécurité, au bien-être et au développement physique, psychique, affectif, cognitif et social des enfants qui leur sont confiés  ».

L’article 3 bis introduit une nouvelle obligation pour ces personnes : « [assurer] la protection du développement des enfants de moins de trois ans en leur évitant toute exposition aux écrans (smartphone, tablette, ordinateur, télévision)  ».

En réalité, cet article est déjà largement satisfait par la rédaction en vigueur de l’article L. 214‑1-1 précité, l’exposition aux écrans des enfants de moins de trois ans étant dangereuse pour leur santé, leur bien-être, leur développement physique, cognitif et social. C’est sur le fondement de cet article que le ministère de la santé s’est appuyé pour interdire l’exposition aux écrans dans tous les lieux d’accueil du jeune enfant : crèches, haltes-garderies, lieux d’accueil proposés par les assistants maternels. Cette interdiction a été édictée par un arrêté du 27 juin 2025 modifiant la charte nationale pour l’accueil du jeune enfant

Si l’intention poursuivie par la commission est parfaitement louable, il apparaît donc qu’elle est satisfaite par l’état du droit, c’est pourquoi le présent amendement propose de supprimer l’article 3  bis.

Voir le PDF
Adopté 26/01/2026

Le présent amendement propose de réécrire l’article premier.

Depuis plusieurs années, les pouvoirs publics sont engagés dans une action continue de protection des mineurs face aux risques avérés et documentés liés à l’usage de certains services numériques. Cette priorité s’est traduite au niveau européen par l’adoption du règlement du 19 octobre 2022 relatif à un marché unique des services numériques (règlement DSA), puis, au niveau national, par l’adoption de la loi du 21 mai 2024 visant à sécuriser et réguler l’espace numérique, qui a notamment permis la mise en place de dispositifs de vérification de l’âge pour l’accès à certains contenus. Dans la continuité de cette dynamique, la protection de l’enfance en ligne appelle désormais l’instauration d’un âge minimal pour l’accès aux réseaux sociaux.

Les services de réseaux sociaux en ligne constituent aujourd’hui un média d’audience massive auprès des jeunes et concentrent, à ce titre, des risques particulièrement élevés pour les enfants. Les travaux parlementaires menés sur le sujet, ainsi que le rapport de la commission d’experts « Écrans » remis en avril 2024, ont mis en évidence les menaces spécifiques que ces services font peser sur le développement, la santé et le bien-être des enfants et des adolescents. L’avis rendu le 16 décembre 2025 par l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail apporte à cet égard un éclairage déterminant pour fonder et justifier la présente politique publique. Il souligne que les risques associés aux réseaux sociaux ne tiennent pas uniquement aux contenus auxquels les mineurs peuvent être exposés, mais résultent également, de manière structurelle, de la conception même de ces services. Fondés sur des modèles économiques reposant sur la captation et la maximisation de l’attention des utilisateurs, les réseaux sociaux recourent à des mécanismes tels que la diffusion de contenus audiovisuels courts, l’enchaînement algorithmique de recommandations, les effets de spirale, les logiques de ciblage comportemental ou encore certaines modalités d’interaction sociale, qui peuvent exploiter les fragilités des utilisateurs, en particulier des plus jeunes. Le rapport de l’ANSES qualifie explicitement cette « conception comme source de risque ». Ces constats mettent en évidence que les risques liés aux réseaux sociaux vont bien au-delà des seules problématiques de contenus et concernent également les comportements en ligne, les interactions sociales, le profilage commercial, ainsi que les phénomènes de harcèlement, de cyberharcèlement, d’extorsion ou de manipulation. Les travaux de l’ANSES rejoignent en cela, dans des termes similaires, les conclusions de la mission « Enfants et écrans » de 2024, en soulignant que la logique de maximisation de l’engagement peut conduire à des parcours d’usage marqués par des effets de renforcement et de polarisation, exposant progressivement les utilisateurs à des contenus plus extrêmes ou plus clivants. Ces analyses convergent enfin avec celles formulées par plusieurs organisations internationales, notamment Amnesty International dans son rapport d’octobre 2025, confirmant le caractère systémique de ces risques et le rôle déterminant joué par l’architecture et les fonctionnalités mêmes des plateformes dans leur survenance, en particulier s’agissant des mineurs.

Dans le cadre du dialogue engagé avec la Commission européenne, l’adoption des lignes directrices relatives à l’application de l’article 28 du règlement DSA en matière de protection de l’enfance en ligne a consacré la pleine légitimité d’un État membre à fixer, dans son droit national, un seuil d’âge minimal pour l’accès à un réseau social. C’est sur ce fondement que le présent amendement propose de réécrire l’article 1er de la proposition de loi afin d’instaurer en France une règle générale fixant à 15 ans l’âge minimal pour accéder aux services de réseaux sociaux, dans le respect du cadre européen. 

Cette mesure poursuit un objectif de protection de l’enfance en ligne sans porter une atteinte disproportionnée à la liberté d’information des mineurs concernés, lesquels conservent un accès large à internet et peuvent notamment recourir aux moteurs de recherche pour consulter des sites dont les contenus sont publiés sous la responsabilité éditoriale de leurs éditeurs et légalement accessibles aux mineurs, lire des articles de presse, consulter des blogs, visionner des contenus audiovisuels proposés par des éditeurs de médias ou par des plateformes de partage de vidéos, écouter des programmes radio ou encore s’abonner à des lettres d’information. En outre, les informations diffusées par les éditeurs de presse et de médias sur leurs comptes de réseaux sociaux sont, dans la très grande majorité des cas, initialement publiées et librement accessibles sur leurs propres sites internet, auxquels les mineurs peuvent continuer d’accéder sans restriction. Ces services constituent des sources d’information alternatives et substituables aux réseaux sociaux.

Par ailleurs, l’interdiction instituée par le présent amendement ne couvre pas l’ensemble des plateformes en ligne : les encyclopédies collaboratives en ligne, les répertoires éducatifs ou scientifiques, les plateformes de développement et de partage de logiciels libres, les services spécifiquement conçus pour un public mineur et dépourvus de fonctionnalités sociales ouvertes, ainsi que les services de messagerie privée fondés sur des échanges interpersonnels non publics, demeurent expressément exclus du champ de l’interdiction.

Afin de garantir l’effectivité de la règle posée par le présent amendement et d’éviter tout contournement par des effets de report, le champ d’application de l’interdiction est défini au plus près des usages réels des services numériques par les mineurs. Sont ainsi naturellement visés les principaux services de réseaux sociaux en ligne largement utilisés par les adolescents. Toutefois, le dispositif ne se limite pas à ces seules plateformes : il vise également les services qui, indépendamment de leur qualification commerciale, présentent les critères et fonctionnalités caractéristiques des réseaux sociaux, notamment lorsqu’ils permettent la création de comptes, l’interaction entre utilisateurs, la diffusion publique ou semi-publique de contenus ou la participation à des communautés d’utilisateurs. Peuvent ainsi être concernés des services lorsqu’ils permettent des interactions publiques, certaines fonctionnalités semi-publiques de services de messagerie instantanée, à l’exclusion stricte de la messagerie privée, ainsi que les fonctionnalités sociales intégrées à certains jeux vidéo en ligne lorsque ces fonctionnalités exposent les utilisateurs à des risques avérés en matière de contacts, de contenus ou d’interactions.

Les services de réseaux sociaux se fondent aujourd’hui majoritairement sur des déclarations d’âge, aisément contournables et insuffisantes pour garantir une protection effective des mineurs. Afin d’assurer l’effectivité de l’interdiction prévue par le présent amendement, le présent amendement s’inscrit dans le cadre européen posé par les lignes directrices de l’article 28 du DSA. La Commission considère que le recours à des restrictions d’accès fondées sur des méthodes de vérification de l’âge constitue une mesure appropriée et proportionnée pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs, pour divers services qui présentent un risque élevé pour les mineurs, et notamment lorsque le droit de l’Union ou le droit national fixe un âge minimal pour accéder à certains produits ou services, dont les services de réseaux sociaux en ligne. En établissant cet âge minimal à 15 ans, cet amendement s’inscrit dans ce cadre : les plateformes devront mettre en œuvre des dispositifs de vérification d’âge pour assurer l’effectivité de cette mesure. 

Ces lignes directrices fixent également à l’échelle européenne les critères attendus de conception des outils de vérification et d’estimation d’âge pour garantir l’équilibre entre le respect de la vie privée, la protection des données personnelles des utilisateurs et la robustesse de la vérification de l’âge. L’utilisation de méthodes efficaces d’assurance de l’âge devra être conforme aux principes posés par les lignes directrices : être précises, fiables, robustes, non intrusives et non discriminatoires. Plusieurs technologies peuvent être envisagées pour garantir la sécurité de l’usager, comme les tiers de confiance ou les « zero-knowledge proof ».

Les dispositifs d’assurance de l’âge devront être opérationnels à la date d’entrée en vigueur de la loi et conformes aux critères techniques définis par les lignes directrices adoptées par la Commission européenne pour l’application de l’article 28 du règlement DSA.

Il existe déjà un écosystème d’outils et des technologies d’estimation ou de vérification d’âge, qui sont, pour certains, utilisés sur d’autres services que les services de réseau social pour vérifier l’accès à ces sites ou pour limiter l’accès à certains contenus préjudiciables. Des solutions d’estimation d’âge sont ainsi utilisées sur des sites à caractère pornographique ou sur certains services de réseaux sociaux pour limiter l’accès à des contenus qui présentent des risques élevés pour les mineurs.

Complémentairement à cet écosystème, ces exigences s’inscrivent dans une dynamique européenne plus large visant à développer des solutions techniques à la fois protectrices et interopérables. À ce titre, des travaux sont conduits au niveau européen, notamment dans le cadre d’expérimentations initiées par la Commission, auxquelles la France participe activement en tant que pays pilote. Ces travaux portent en particulier sur le dispositif dit de « mini-wallet », destiné à permettre la transmission d’un signal d’âge strictement limité à l’atteinte ou non du seuil requis, sans communication de données d’identité supplémentaires. L’objectif est une mise à disposition de ce dispositif auprès du public à l’horizon 2026.

Concrètement, le présent amendement procède ainsi à une réécriture générale de l’article 1er de la proposition de loi. Il vise à insérer un nouvel article dans la loi n° 2004‑575 du 21 juin 2004 pour la confiance dans l’économie numérique afin d’établir l’interdiction d’accès aux réseaux sociaux pour les mineurs de moins de quinze ans, conformément au cadre fixé par le règlement DSA et par les lignes directrices de la Commission européenne relatives à son article 28.

La catégorie des réseaux sociaux visés par la règle d’interdiction est définie par référence aux définitions portées par le droit de l’Union au sein du règlement DSA ainsi que du règlement du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique, dit règlement DMA (Digital Markets Act). Le dispositif prévoit par ailleurs une disposition expresse pour le traitement des comptes de réseaux sociaux créés avant la date d’entrée en vigueur de la loi et exclut du champ d’application les encyclopédies et répertoires en ligne éducatifs à but non lucratif. Le régime de sanction est strictement placé dans le cadre de gouvernance du règlement DSA, en confiant la mission de contrôle à l’Autorité de régulation de la communication audiovisuelle et numérique (ARCOM), dans les conditions prévues par la loi dite « SREN » et par les prérogatives qui sont les siennes au titre du règlement DSA.

Voir le PDF
Retiré 26/01/2026

Cet amendement est issu de la proposition de loi de notre collègue la Sénatrice Catherine Morin-Desailly.

En 2023, le législateur français a souhaité instaurer une majorité numérique. La loi n° 2023‑566 du 7 juillet 2023, dite « loi Marcangeli », visant à établir cette majorité et à lutter contre la haine en ligne, n’est toutefois jamais entrée en vigueur. Son application dépendait d’un décret, qui n’a jamais été adopté par le Gouvernement, suite aux observations de la Commission européenne sur la compatibilité du texte avec le droit de l’Union européenne.

Le 14 juillet 2025, la Commission européenne a publié ses lignes directrices sur l’application du règlement sur les services numériques (RSN), prenant en compte l’appel de la France à mettre en place une restriction d’accès aux réseaux sociaux pour les mineurs. Elle y indique notamment que le recours à un dispositif de vérification de l’âge est approprié « lorsque le droit national prescrit un âge minimum pour accéder à une plateforme en ligne, y compris des catégories spécifiques de services de médias sociaux en ligne ». Chaque État membre peut ainsi désormais fixer un âge minimal d’accès aux réseaux sociaux.

La Commission a également présenté un prototype d’application de vérification de l’âge, fondé sur l’architecture du Portefeuille Européen d’Identité Numérique, actuellement évalué en partenariat avec les États membres, dont la France, ainsi que les plateformes et les utilisateurs finaux.

Dans ce cadre, le présent amendement vise à obliger les plateformes à interdire l’accès aux réseaux sociaux aux mineurs de moins de 13 ans et à mettre en place un système de vérification de l’âge robuste, conforme à un référentiel établi par l’Arcom. Si plusieurs plateformes fixent déjà un âge minimal de 13 ans, elles ne vérifient pas réellement l’âge de leurs utilisateurs.

Par ailleurs, l’amendement prévoit que les mineurs âgés de 13 à 16 ans devront obtenir l’autorisation parentale pour leur inscription sur un réseau social. Cette mesure vise à responsabiliser les parents et à leur permettre d’engager un dialogue avec leurs enfants sur leurs usages numériques.

Cet amendement est conforme à la position adoptée par le Parlement européen le 26 novembre 2025, dans le rapport d’initiative de Christel Schaldemose sur la protection des mineurs, et présente l’avantage d’être susceptible d’une adoption harmonisée au niveau européen, ce qui faciliterait son application.

L’objectif de ce dispositif est de protéger les mineurs contre les effets négatifs des réseaux sociaux, qu’ils soient sanitaires, liés au cyberharcèlement ou à d’autres atteintes à leur sécurité et à leur bien-être, tels que documentés par les nombreuses études scientifiques disponibles à ce jour.

Voir le PDF
Tombé 26/01/2026

L’article 6 de la proposition de loi étend l’interdiction de l’utilisation des téléphones mobiles et autres équipements terminaux de communications électroniques aux lycées, en modifiant l’article L. 511-5 du code de l’éducation.

Toutefois, le maintien de la faculté, pour le règlement intérieur, d’autoriser l’usage de ces équipements dans certains lieux de l’établissement est de nature à affaiblir la portée normative de l’interdiction posée par le législateur. En pratique, cette faculté conduit à des applications très hétérogènes selon les établissements, certains règlements intérieurs autorisant largement l’usage des téléphones en dehors des salles de classe, ce qui revient à neutraliser l’objectif poursuivi par la loi.

Une telle situation porte atteinte au principe d’égalité devant la loi et nuit à la lisibilité ainsi qu’à l’effectivité de la règle législative.

Le présent amendement vise donc à supprimer toute possibilité de dérogation au principe général d’interdiction par le règlement intérieur, afin de garantir une application uniforme de la loi sur l’ensemble du territoire.

Cette suppression ne remet pas en cause les exceptions prévues par la loi, notamment pour les élèves en situation de handicap ou présentant un trouble de santé invalidant.

Voir le scrutin 26/01/2026 00:00
Rejeté 26/01/2026

Le texte adopté en commission fait peser l’interdiction d’accès sur le mineur de quinze ans, ce qui permet de sécuriser le dispositif au regard de l’interprétation du règlement (UE) 2022/2065 sur les services numériques (DSA), règlement d’harmonisation maximale. Toutefois, l’effectivité d’une telle interdiction dépend, en pratique, des acteurs qui organisent l’inscription, l’accès et le maintien des comptes : sans obligations corrélatives à la charge des plateformes, la règle demeure largement théorique.

Le présent amendement réintroduit donc, en complément de l’interdiction applicable au mineur, une obligation pour les fournisseurs des services concernés : refus d’inscription, suspension des comptes existants et recours à des solutions de vérification d’âge conformes à un référentiel Arcom, élaboré après consultation de la CNIL.

Sur le plan du droit de l’Union européenne, le présent amendement s’inscrit dans la logique du DSA : celui-ci reconnaît que les États membres peuvent définir, conformément au droit de l’Union, des règles rendant illicite l’accès à certains contenus ou services, et les lignes directrices de la Commission relatives à la protection des mineurs recommandent expressément aux plateformes des méthodes de restriction d’accès en fonction de l’âge lorsque le droit national fixe un âge minimal d’accès à certaines catégories de services, y compris des catégories définies de médias sociaux. En rendant l’accès des mineurs de quinze ans aux services visés illicite au regard du droit national, l’amendement précise les mesures opérationnelles attendues pour assurer l’effectivité de cette illicéité, en cohérence avec l’objectif européen de protection des mineurs, consacré notamment par l’article 28 du DSA.

Au-delà, la France, État souverain, ne saurait renoncer à édicter les mesures nécessaires à la protection des enfants et à la préservation de leur santé et de leur développement, qui constituent des exigences fondamentales. Le présent amendement assume donc le choix politique de rétablir une obligation à la charge des plateformes, car elles seules disposent des leviers techniques et organisationnels permettant une application réellement efficace de l’interdiction.

Cette approche est d’ailleurs cohérente avec des expériences étrangères récentes : en Australie, le cadre de “minimum age” fait peser l’obligation sur les plateformes, tenues de prendre des “mesures raisonnables” pour empêcher les mineurs d’avoir ou de conserver un compte. En réintroduisant des obligations comparables, le présent amendement vise à assurer l’effectivité du dispositif français et à éviter que la charge du respect de la règle ne repose uniquement sur les mineurs.

Voir le scrutin 26/01/2026 00:00
Rejeté 26/01/2026

Le texte adopté en commission fait peser l’interdiction d’accès sur le mineur de quinze ans. Ce choix permet de respecter le cadre du règlement (UE) 2022/2065 sur les services numériques (DSA), règlement d’harmonisation maximale, en évitant de créer des exigences nationales supplémentaires imposées directement aux plateformes.

Cette interdiction n’est pas dépourvue d’effets à l’égard des plateformes : au sens du DSA, la notion de « contenu illicite » est définie de manière large comme toute information non conforme au droit de l’Union ou au droit d’un État membre conforme au droit de l’Union, y compris lorsqu’elle est liée à une activité illégale, notamment la fourniture d’un service. Dès lors que la loi nationale interdit l’accès d’un mineur de quinze ans à certains services, l’accès correspondant, ainsi que les informations permettant cet accès (création, maintien et utilisation d’un compte, identifiants, profil, paramètres et autres éléments de compte), sont susceptibles d’être regardés comme relevant d’une situation d’illicéité au sens du DSA. Cette qualification permet d’activer les mécanismes européens applicables aux contenus illicites, notamment les injonctions d’agir, les obligations de traitement et de suivi des signalements et, pour les très grandes plateformes en ligne, les pouvoirs de contrôle et de sanction exercés au niveau de l’Union.

Par ailleurs, la nullité des contrats conclus en violation de l’interdiction, prévue par le texte, prive de base contractuelle les traitements de données à caractère personnel subséquents. En l’absence d’autre fondement valable, la collecte et l’utilisation de données personnelles d’un mineur pour créer et faire fonctionner un compte en méconnaissance de l’interdiction sont susceptibles de devenir illicites au regard du droit de la protection des données, ouvrant ainsi la possibilité d’intervention de l’autorité de contrôle compétente.

Le présent amendement vise donc à rendre pleinement opérationnelle cette articulation : sans imposer d’obligations substantielles nouvelles aux plateformes en dehors du DSA, il organise la mobilisation des outils européens existants, sous la coordination de l’Arcom, afin que l’interdiction posée par le législateur ne demeure pas théorique et puisse produire des effets concrets sur les comptes et les accès irréguliers.

Voir le PDF
Tombé 26/01/2026

Le mécanisme d’accord préalable exprès transforme l’interdiction posée par le texte en un régime d’autorisation conditionnelle, complexe à mettre en œuvre et aisément contournable, au risque d’affaiblir l’effectivité de la protection recherchée. Sa suppression rétablit la clarté de la norme et garantit une application uniforme du dispositif.

Voir le PDF
Tombé 26/01/2026

La rédaction actuelle du 2° peut prêter à confusion en laissant penser que l’accord préalable exprès d’un administrateur légal permettrait l’accès du mineur à l’ensemble des services, y compris ceux figurant sur la liste établie en application du 1°. Or l’intention du dispositif est de distinguer clairement :

– d’une part, les services inscrits sur la liste prévue au 1°, dont l’accès est interdit aux mineurs de quinze ans sans dérogation ;

– d’autre part, les services ne figurant pas sur cette liste, pour lesquels l’accès ne peut être autorisé qu’à la condition que le mineur justifie d’un accord préalable exprès d’un administrateur légal.

Le présent amendement vise donc à lever toute ambiguïté d’interprétation et à sécuriser la portée normative du texte.

Voir le scrutin 26/01/2026 00:00
Adopté 26/01/2026

Le présent amendement propose de réécrire l’article premier.

Depuis plusieurs années, sous l’impulsion du président de la République, les pouvoirs publics sont engagés dans une action continue de protection des mineurs face aux risques avérés et documentés liés à l’usage de certains services numériques. Cette priorité s’est traduite au niveau européen par l’adoption du règlement du 19 octobre 2022 relatif à un marché unique des services numériques (règlement DSA), puis, au niveau national, par l’adoption de la loi du 21 mai 2024 visant à sécuriser et réguler l’espace numérique, qui a notamment permis la mise en place de dispositifs de vérification de l’âge pour l’accès à certains contenus. Dans la continuité de cette dynamique, la protection de l’enfance en ligne appelle désormais l’instauration d’un âge minimal pour l’accès aux réseaux sociaux.

Dans le cadre du dialogue engagé avec la Commission européenne, l’adoption des lignes directrices relatives à l’application de l’article 28 du règlement DSA en matière de protection de l’enfance en ligne a consacré la pleine légitimité d’un État membre à fixer, dans son droit national, un seuil d’âge minimal pour l’accès à un réseau social. C’est sur ce fondement que le présent amendement propose de réécrire l’article 1er de la proposition de loi afin d’instaurer en France une règle générale fixant à 15 ans l’âge minimal pour accéder aux services de réseaux sociaux, dans le respect du cadre européen.

 

Les services de réseaux sociaux en ligne constituent aujourd’hui un média d’audience massive auprès des jeunes et concentrent, à ce titre, des risques particulièrement élevés pour les enfants. Les travaux parlementaires menés sur le sujet, ainsi que le rapport de la commission d’experts « Écrans » remis en avril 2024, ont mis en évidence les menaces spécifiques que ces services font peser sur le développement, la santé et le bien-être des enfants et des adolescents. L’avis rendu le 16 décembre 2025 par l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail apporte à cet égard un éclairage déterminant pour fonder et justifier la présente politique publique. Il souligne que les risques associés aux réseaux sociaux ne tiennent pas uniquement aux contenus auxquels les mineurs peuvent être exposés, mais résultent également, de manière structurelle, de la conception même de ces services. Fondés sur des modèles économiques reposant sur la captation et la maximisation de l’attention des utilisateurs, les réseaux sociaux recourent à des mécanismes tels que la diffusion de contenus audiovisuels courts, l’enchaînement algorithmique de recommandations, les effets de spirale, les logiques de ciblage comportemental ou encore certaines modalités d’interaction sociale, qui peuvent exploiter les fragilités des utilisateurs, en particulier des plus jeunes. Le rapport de l’ANSES qualifie explicitement cette « conception comme source de risque ». Ces constats mettent en évidence que les risques liés aux réseaux sociaux vont bien au-delà des seules problématiques de contenus et concernent également les comportements en ligne, les interactions sociales, le profilage commercial, ainsi que les phénomènes de harcèlement, de cyberharcèlement, d’extorsion ou de manipulation. Les travaux de l’ANSES rejoignent en cela, dans des termes similaires, les conclusions de la mission « Enfants et écrans » de 2024, en soulignant que la logique de maximisation de l’engagement peut conduire à des parcours d’usage marqués par des effets de renforcement et de polarisation, exposant progressivement les utilisateurs à des contenus plus extrêmes ou plus clivants. Ces analyses convergent enfin avec celles formulées par plusieurs organisations internationales, notamment Amnesty International dans son rapport d’octobre 2025, confirmant le caractère systémique de ces risques et le rôle déterminant joué par l’architecture et les fonctionnalités mêmes des plateformes dans leur survenance, en particulier s’agissant des mineurs.

La mesure proposée poursuit un objectif de protection de l’enfance en ligne sans porter une atteinte disproportionnée à la liberté d’information des mineurs concernés, lesquels conservent un accès large à internet et peuvent notamment recourir aux moteurs de recherche pour consulter des sites dont les contenus sont publiés sous la responsabilité éditoriale de leurs éditeurs et légalement accessibles aux mineurs, lire des articles de presse, consulter des blogs, visionner des contenus audiovisuels proposés par des éditeurs de médias ou par des plateformes de partage de vidéos, écouter des programmes radio ou encore s’abonner à des lettres d’information. En outre, les informations diffusées par les éditeurs de presse et de médias sur leurs comptes de réseaux sociaux sont, dans la très grande majorité des cas, initialement publiées et librement accessibles sur leurs propres sites internet, auxquels les mineurs peuvent continuer d’accéder sans restriction. Ces services constituent des sources d’information alternatives et substituables aux réseaux sociaux.

Par ailleurs, l’interdiction instituée par le présent amendement ne couvre pas l’ensemble des plateformes en ligne : les encyclopédies collaboratives en ligne, les répertoires éducatifs ou scientifiques, les plateformes de développement et de partage de logiciels libres, les services spécifiquement conçus pour un public mineur et dépourvus de fonctionnalités sociales ouvertes, ainsi que les services de messagerie privée fondés sur des échanges interpersonnels non publics, demeurent expressément exclus du champ de l’interdiction.

Afin de garantir l’effectivité de la règle posée par le présent amendement et d’éviter tout contournement par des effets de report, le champ d’application de l’interdiction est défini au plus près des usages réels des services numériques par les mineurs. Sont ainsi naturellement visés les principaux services de réseaux sociaux en ligne largement utilisés par les adolescents. Toutefois, le dispositif ne se limite pas à ces seules plateformes : il vise également les services qui, indépendamment de leur qualification commerciale, présentent les critères et fonctionnalités caractéristiques des réseaux sociaux, notamment lorsqu’ils permettent la création de comptes, l’interaction entre utilisateurs, la diffusion publique ou semi-publique de contenus ou la participation à des communautés d’utilisateurs. Peuvent ainsi être concernés des services lorsqu’ils permettent des interactions publiques, certaines fonctionnalités semi-publiques de services de messagerie instantanée, à l’exclusion stricte de la messagerie privée, ainsi que les fonctionnalités sociales intégrées à certains jeux vidéo en ligne lorsque ces fonctionnalités exposent les utilisateurs à des risques avérés en matière de contacts, de contenus ou d’interactions.

Les services de réseaux sociaux se fondent aujourd’hui majoritairement sur des déclarations d’âge, aisément contournables et insuffisantes pour garantir une protection effective des mineurs. Afin d’assurer l’effectivité de l’interdiction prévue par le présent amendement, le présent amendement s’inscrit dans le cadre européen posé par les lignes directrices de l’article 28 du DSA. La Commission considère que le recours à des restrictions d’accès fondées sur des méthodes de vérification de l’âge constitue une mesure appropriée et proportionnée pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs, pour divers services qui présentent un risque élevé pour les mineurs, et notamment lorsque le droit de l’Union ou le droit national fixe un âge minimal pour accéder à certains produits ou services, dont les services de réseaux sociaux en ligne. En établissant cet âge minimal à 15 ans, cet amendement s’inscrit dans ce cadre : les plateformes devront mettre en œuvre des dispositifs de vérification d’âge pour assurer l’effectivité de cette mesure.  

Ces lignes directrices fixent également à l’échelle européenne les critères attendus de conception des outils de vérification et d’estimation d’âge pour garantir l’équilibre entre le respect de la vie privée, la protection des données personnelles des utilisateurs et la robustesse de la vérification de l’âge. L'utilisation de méthodes efficaces d'assurance de l'âge devra être conforme aux principes posés par les lignes directrices : être précises, fiables, robustes, non intrusives et non discriminatoires.  Plusieurs technologies peuvent être envisagées pour garantir la sécurité de l’usager, comme les tiers de confiance ou les « zero-knowledge proof ».

Les dispositifs d’assurance de l’âge devront être opérationnels à la date d’entrée en vigueur de la loi et conformes aux critères techniques définis par les lignes directrices adoptées par la Commission européenne pour l’application de l’article 28 du règlement DSA.

Il existe déjà un écosystème d’outils et des technologies d’estimation ou de vérification d’âge, qui sont, pour certains, utilisés sur d’autres services que les services de réseau social pour vérifier l’accès à ces sites ou pour limiter l’accès à certains contenus préjudiciables. Des solutions d’estimation d’âge sont ainsi utilisées sur des sites à caractère pornographique ou sur certains services de réseaux sociaux pour limiter l’accès à des contenus qui présentent des risques élevés pour les mineurs.

Complémentairement à cet écosystème, ces exigences s’inscrivent dans une dynamique européenne plus large visant à développer des solutions techniques à la fois protectrices et interopérables. À ce titre, des travaux sont conduits au niveau européen, notamment dans le cadre d’expérimentations initiées par la Commission, auxquelles la France participe activement en tant que pays pilote. Ces travaux portent en particulier sur le dispositif dit de « mini-wallet », destiné à permettre la transmission d’un signal d’âge strictement limité à l’atteinte ou non du seuil requis, sans communication de données d’identité supplémentaires. L’objectif est une mise à disposition de ce dispositif auprès du public à l’horizon 2026.

 

Concrètement, le présent amendement procède ainsi à une réécriture générale de l’article 1er de la proposition de loi. Il vise à insérer un nouvel article dans la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique afin d’établir l’interdiction d’accès aux réseaux sociaux pour les mineurs de moins de quinze ans, conformément au cadre fixé par le règlement DSA et par les lignes directrices de la Commission européenne relatives à son article 28.

La catégorie des réseaux sociaux visés par la règle d’interdiction est définie par référence aux définitions portées par le droit de l’Union au sein du règlement DSA ainsi que du règlement du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique, dit règlement DMA (Digital Markets Act). Le dispositif prévoit par ailleurs une disposition expresse pour le traitement des comptes de réseaux sociaux créés avant la date d’entrée en vigueur de la loi et exclut du champ d’application les encyclopédies et répertoires en ligne éducatifs à but non lucratif. Le régime de sanction est strictement placé dans le cadre de gouvernance du règlement DSA, en confiant la mission de contrôle à l’Autorité de régulation de la communication audiovisuelle et numérique (ARCOM), dans les conditions prévues par la loi dite « SREN » et par les prérogatives qui sont les siennes au titre du règlement DSA.

Voir le PDF
Retiré 26/01/2026

Les données de santé publique France, comme celles de l'ANSES, étudient l'exposition au numérique, aux écrans, et ne fournissent aucune données discriminantes sur les seuls réseaux sociaux.

La PPL dans sa version issue de la Commission veut légiférer sur les plateformes de partage de vidéos en ligne, qui ne sont pas des réseaux sociaux, au sens du DSA. De même, elle veut interdire les smartphones dans les lycées qui ne servent pas exclusivement, ni même peut-être principalement à consulter les réseaux sociaux.

L'erreur avait déjà été faite de consacrer une commission d'enquête en ne visant qu'un seul réseau social, il serait dangereux d'inscrire dans la loi et son titre que seuls les réseaux sociaux présentent des risques pour les mineurs.

Il s'agit bien d'une éducation et d'une vigilance sur le numérique et les écrans à mettre en oeuvre. 

Voir le PDF
Rejeté 26/01/2026

Le présent amendement vise à assurer l’effectivité juridique et opérationnelle de l’interdiction d’accès des mineurs de moins de quinze ans aux services de réseaux sociaux en ligne, telle que prévue par l’article 1er de la présente proposition de loi.

Protéger les mineurs de quinze ans face aux dérives des réseaux sociaux ne peut se réduire à un affichage de principes. Lorsque la loi interdit l’accès des enfants de moins de quinze ans à ces plateformes, cette interdiction doit être réelle, contrôlable et sanctionnable. À défaut, elle resterait lettre morte.

Or la proposition, dans sa forme actuelle se borne à affirmer la nullité des « contrats » passés avec des mineurs de quinze ans . Cette nullité, à elle seule, serait sans porté pratique puisque 1) lesdits mineurs ne peuvent pas, en principe, s’engager par contrat, que 2) on peine à discerner à quels types de restitutions ou de réparation donnerait lieu le prononcé de cette nullité et que 3) la nullité ne vaut que pour le passé et n'entrainerait probablement pas par elle-même fermeture du compte, en tout cas n'empêcherait pas la création d'un nouveau. 

Ainsi, dès lors qu’une plateforme a connaissance qu’un enfant de moins de quinze ans utilise ses services, elle soit tenue de mettre fin immédiatement à l’exploitation des données, d’en effacer les traces et d’en informer les parents. Ce minimum de responsabilité est indispensable pour mettre fin aux pratiques de contournement et aux défaillances volontaires ou tolérées.

Surtout, il faut donner aux familles un véritable pouvoir d’action. En permettant aux titulaires de l’autorité parentale de saisir directement la Commission nationale de l’informatique et des libertés, il garantit que les manquements ne resteront pas invisibles et que les plateformes ne pourront plus se retrancher derrière l’opacité de leurs systèmes.

En donnant à la CNIL et aux parents les moyens d’agir, le présent amendement transforme une interdiction formelle en une protection effective, au service des familles et de la santé des enfants.

Voir le PDF
Retiré 26/01/2026

Cet article issu des travaux de la Commission est radicalement différent de sa version initiale écrite dans la proposition de loi. La rapporteure a assuré que c'était une version réécrite par le Conseil d'Etat que la Présidente de l'Assemblée avait interrogé.

Une proposition de loi adoptée par le Sénat et un projet de loi porté par le gouvernement sur le même sujet sont annoncés. Il serait assurément plus utile de passer par un projet de loi.

En effet, pour avoir déjà adopté plusieurs lois non conformes à la règlementation européenne, seule compétente en la matière, il semble plus raisonnable et efficient de partir d'un projet de loi, avec une étude d'impact sérieuse, que d'une fragile proposition de loi, qui serait une fois encore inopérante.

De plus, la directive européenne et surtout les lignes directrices, qui ont tardé à être publiées, semblent beaucoup plus robustes et opérationnelles que cette proposition de loi. Il serait pertinent que cette proposition devienne une résolution et que cette résolution soit partagée avec plusieurs parlements nationaux, de plusieurs Etats membres.

Si nous voulons accélérer la mise en oeuvre d'une réelle protection des mineurs en ligne, c'est soit en écrivant du droit national robuste et ce n'est assurément pas le cas de cette proposition, soit en accélérant au niveau européen à la réelle mise en oeuvre de toutes les mesures qui pourraient s'imposer aux grandes plateformes et réseaux visés par cette proposition.

Le règlement européen sur les services numériques (DSA) a posé un cadre commun et harmonisé. Il consacre la protection des mineurs comme une exigence centrale, mais il réserve à l’Union européenne la définition des obligations directes pesant sur les plateformes. Dans son avis du 8 janvier 2026, le Conseil d’État a rappelé que le législateur national ne peut, sans risque juridique majeur, imposer seul de nouvelles contraintes aux fournisseurs de réseaux sociaux.

Cette proposition de loi et cet article 1 réécrit fait le choix de faire porter la responsabilité sur les mineurs et leurs parents est maladroit pour le moins, voire dangereux.

En effet, on a "vendu" cette proposition de loi comme protégeant les mineurs de quelques dangereux réseaux tout en les laissant accéder à des réseaux ou services éthiques, sans définir ni les premier ni les seconds. On assure dans les médias qu'il y aura un contrôle d'age, qui n'est pas prévu par ce texte.

A ce stade, par analogie avec le tabac, nous ne demandons plus aux débitants de tabac de ne pas en vendre aux mineurs. Ici, nous demandons aux mineurs de ne pas en acheter et à leurs parents de s'en assurer.

 

Une fois de plus nous aurons légiférer avec une promesse d'agir, et nous ne tiendrons pas cette promesse.

 

Voir le PDF
Rejeté 26/01/2026

Les articles L. 121‑1 et suivants du code de l’éducation définissent les objectifs et missions du service public d’éducation. Dans ce cadre, les écoles, collèges, lycées et établissements d’enseignement supérieur contribuent notamment à l’éducation à la responsabilité civique, y compris en matière d’utilisation d’internet et des services de communication en ligne, et assurent une mission d’information sur les violences, y compris celles commises en ligne.

Cet amendement issu de la proposition de loi de notre collègue la Sénatrice Catherine MORIN-DESAILLY vise à compléter les missions du service public d’éducation par une prévention des risques liés à une utilisation excessive des écrans et à une possible dépendance aux réseaux sociaux. Cette modification étend également ces obligations aux établissements privés sous contrat, qui participent au service public de l’éducation nationale. En 2024, plus de deux millions d’élèves étaient scolarisés dans des établissements privés sous contrat du premier et du second degré.

Voir le PDF
Adopté 26/01/2026

Le présent amendement propose de réécrire l’article premier.

Depuis plusieurs années, les pouvoirs publics sont engagés dans une action continue de protection des mineurs face aux risques avérés et documentés liés à l’usage de certains services numériques. Cette priorité s’est traduite au niveau européen par l’adoption du règlement du 19 octobre 2022 relatif à un marché unique des services numériques (règlement DSA), puis, au niveau national, par l’adoption de la loi du 21 mai 2024 visant à sécuriser et réguler l’espace numérique, qui a notamment permis la mise en place de dispositifs de vérification de l’âge pour l’accès à certains contenus. Dans la continuité de cette dynamique, la protection de l’enfance en ligne appelle désormais l’instauration d’un âge minimal pour l’accès aux réseaux sociaux.

Les services de réseaux sociaux en ligne constituent aujourd’hui un média d’audience massive auprès des jeunes et concentrent, à ce titre, des risques particulièrement élevés pour les enfants. Les travaux parlementaires menés sur le sujet, ainsi que le rapport de la commission d’experts « Écrans » remis en avril 2024, ont mis en évidence les menaces spécifiques que ces services font peser sur le développement, la santé et le bien-être des enfants et des adolescents. L’avis rendu le 16 décembre 2025 par l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail apporte à cet égard un éclairage déterminant pour fonder et justifier la présente politique publique. Il souligne que les risques associés aux réseaux sociaux ne tiennent pas uniquement aux contenus auxquels les mineurs peuvent être exposés, mais résultent également, de manière structurelle, de la conception même de ces services. Fondés sur des modèles économiques reposant sur la captation et la maximisation de l’attention des utilisateurs, les réseaux sociaux recourent à des mécanismes tels que la diffusion de contenus audiovisuels courts, l’enchaînement algorithmique de recommandations, les effets de spirale, les logiques de ciblage comportemental ou encore certaines modalités d’interaction sociale, qui peuvent exploiter les fragilités des utilisateurs, en particulier des plus jeunes. Le rapport de l’ANSES qualifie explicitement cette « conception comme source de risque ». Ces constats mettent en évidence que les risques liés aux réseaux sociaux vont bien au-delà des seules problématiques de contenus et concernent également les comportements en ligne, les interactions sociales, le profilage commercial, ainsi que les phénomènes de harcèlement, de cyberharcèlement, d’extorsion ou de manipulation. Les travaux de l’ANSES rejoignent en cela, dans des termes similaires, les conclusions de la mission « Enfants et écrans » de 2024, en soulignant que la logique de maximisation de l’engagement peut conduire à des parcours d’usage marqués par des effets de renforcement et de polarisation, exposant progressivement les utilisateurs à des contenus plus extrêmes ou plus clivants. Ces analyses convergent enfin avec celles formulées par plusieurs organisations internationales, notamment Amnesty International dans son rapport d’octobre 2025, confirmant le caractère systémique de ces risques et le rôle déterminant joué par l’architecture et les fonctionnalités mêmes des plateformes dans leur survenance, en particulier s’agissant des mineurs.

Cette mesure poursuit un objectif de protection de l’enfance en ligne sans porter une atteinte disproportionnée à la liberté d’information des mineurs concernés, lesquels conservent un accès large à internet et peuvent notamment recourir aux moteurs de recherche pour consulter des sites dont les contenus sont publiés sous la responsabilité éditoriale de leurs éditeurs et légalement accessibles aux mineurs, lire des articles de presse, consulter des blogs, visionner des contenus audiovisuels proposés par des éditeurs de médias ou par des plateformes de partage de vidéos, écouter des programmes radio ou encore s’abonner à des lettres d’information. En outre, les informations diffusées par les éditeurs de presse et de médias sur leurs comptes de réseaux sociaux sont, dans la très grande majorité des cas, initialement publiées et librement accessibles sur leurs propres sites internet, auxquels les mineurs peuvent continuer d’accéder sans restriction. Ces services constituent des sources d’information alternatives et substituables aux réseaux sociaux. 

Dans le cadre du dialogue engagé avec la Commission européenne, l’adoption des lignes directrices relatives à l’application de l’article 28 du règlement DSA en matière de protection de l’enfance en ligne a consacré la pleine légitimité d’un État membre à fixer, dans son droit national, un seuil d’âge minimal pour l’accès à un réseau social. C’est sur ce fondement que le présent amendement propose de réécrire l’article 1er de la proposition de loi afin d’instaurer en France une règle générale fixant à 15 ans l’âge minimal pour accéder aux services de réseaux sociaux, dans le respect du cadre européen.

Afin de garantir l’effectivité de la règle posée par le présent amendement et d’éviter tout contournement par des effets de report, le champ d’application de l’interdiction est défini au plus près des usages réels des services numériques par les mineurs. Sont ainsi naturellement visés les principaux services de réseaux sociaux en ligne largement utilisés par les adolescents. Toutefois, le dispositif ne se limite pas à ces seules plateformes : il vise également les services qui, indépendamment de leur qualification commerciale, présentent les critères et fonctionnalités caractéristiques des réseaux sociaux, notamment lorsqu’ils permettent la création de comptes, l’interaction entre utilisateurs, la diffusion publique ou semi-publique de contenus ou la participation à des communautés d’utilisateurs. Peuvent ainsi être concernés des services lorsqu’ils permettent des interactions publiques, certaines fonctionnalités semi-publiques de services de messagerie instantanée, à l’exclusion stricte de la messagerie privée, ainsi que les fonctionnalités sociales intégrées à certains jeux vidéo en ligne lorsque ces fonctionnalités exposent les utilisateurs à des risques avérés en matière de contacts, de contenus ou d’interactions.

Les services de réseaux sociaux se fondent aujourd’hui majoritairement sur des déclarations d’âge, aisément contournables et insuffisantes pour garantir une protection effective des mineurs. Afin d’assurer l’effectivité de l’interdiction prévue par le présent amendement, le présent amendement s’inscrit dans le cadre européen posé par les lignes directrices de l’article 28 du DSA. La Commission considère que le recours à des restrictions d’accès fondées sur des méthodes de vérification de l’âge constitue une mesure appropriée et proportionnée pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs, pour divers services qui présentent un risque élevé pour les mineurs, et notamment lorsque le droit de l’Union ou le droit national fixe un âge minimal pour accéder à certains produits ou services, dont les services de réseaux sociaux en ligne. En établissant cet âge minimal à 15 ans, cet amendement s’inscrit dans ce cadre : les plateformes devront mettre en œuvre des dispositifs de vérification d’âge pour assurer l’effectivité de cette mesure.  

Ces lignes directrices fixent également à l’échelle européenne les critères attendus de conception des outils de vérification et d’estimation d’âge pour garantir l’équilibre entre le respect de la vie privée, la protection des données personnelles des utilisateurs et la robustesse de la vérification de l’âge. L'utilisation de méthodes efficaces d'assurance de l'âge devra être conforme aux principes posés par les lignes directrices : être précises, fiables, robustes, non intrusives et non discriminatoires.  Plusieurs technologies peuvent être envisagées pour garantir la sécurité de l’usager, comme les tiers de confiance ou les « zero-knowledge proof ».

Les dispositifs d’assurance de l’âge devront être opérationnels à la date d’entrée en vigueur de la loi et conformes aux critères techniques définis par les lignes directrices adoptées par la Commission européenne pour l’application de l’article 28 drèglement DS.

Il existe déjà un écosystème d’outils et des technologies d’estimation ou de vérification d’âge, qui sont, pour certains, utilisés sur d’autres services que les services de réseau social pour vérifier l’accès à ces sites ou pour limiter l’accès à certains contenus préjudiciables. Des solutions d’estimation d’âge sont ainsi utilisées sur des sites à caractère pornographique ou sur certains services de réseaux sociaux pour limiter l’accès à des contenus qui présentent des risques élevés pour les mineurs.

Complémentairement à cet écosystème, ces exigences s’inscrivent dans une dynamique européenne plus large visant à développer des solutions techniques à la fois protectrices et interopérables. À ce titre, des travaux sont conduits au niveau européen, notamment dans le cadre d’expérimentations initiées par la Commission, auxquelles la France participe activement en tant que pays pilote. Ces travaux portent en particulier sur le dispositif dit de « mini-wallet », destiné à permettre la transmission d’un signal d’âge strictement limité à l’atteinte ou non du seuil requis, sans communication de données d’identité supplémentaires. L’objectif est une mise à disposition de ce dispositif auprès du public à l’horizon 2026.

Concrètement, le présent amendement procède ainsi à une réécriture générale de l’article 1er de la proposition de loi. Il vise à insérer un nouvel article dans la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique afin d’établir l’interdiction d’accès aux réseaux sociaux pour les mineurs de moins de quinze ans, conformément au cadre fixé par le règlement DSA et par les lignes directrices de la Commission européenne relatives à son article 28.

La catégorie des réseaux sociaux visés par la règle d’interdiction est définie par référence aux définitions portées par le droit de l’Union au sein du règlement DSA ainsi que du règlement du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique, dit règlement DMA (Digital Markets Act). Le dispositif prévoit par ailleurs une disposition expresse pour le traitement des comptes de réseaux sociaux créés avant la date d’entrée en vigueur de la loi et exclut du champ d’application les encyclopédies et répertoires en ligne éducatifs à but non lucratif. Le régime de sanction est strictement placé dans le cadre de gouvernance du règlement DSA, en confiant la mission de contrôle à l’Autorité de régulation de la communication audiovisuelle et numérique (ARCOM), dans les conditions prévues par la loi dite « SREN » et par les prérogatives qui sont les siennes au titre du règlement DSA.

Voir le PDF
Rejeté 26/01/2026

Le présent amendement du groupe Écologiste et Social vise à distinguer la responsabilité entre un simple hébergement, neutre, des contenus en ligne destinés aux mineurs et une intervention active au moyen d’un algorithme de mise en avant des contenus au moyen d’un classement fondé sur le profilage du destinataire du service, en la qualifiant d’activité d’édition.

En effet, le rapport de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs a mis en évidence le rôle déterminant des mécanismes de recommandation dans l’exposition des jeunes à des contenus dangereux, en décrivant un « piège algorithmique » susceptible d’enfermer des mineurs dans des spirales de contenus violents, choquants ou faisant la promotion de l’automutilation ou du suicide.

Le règlement DSA définit le « système de recommandation » comme un dispositif, entièrement ou partiellement automatisé, permettant de suggérer ou de hiérarchiser des informations sur l’interface d’une plateforme. Il maintient par ailleurs le régime d’exemption de responsabilité de l’hébergeur, sous conditions, pour les informations stockées à la demande d’un destinataire du service. La jurisprudence de la Cour de justice de l’Union européenne précise toutefois que le prestataire ne peut être regardé comme un intermédiaire « neutre » lorsqu’il joue un rôle actif, notamment en apportant une assistance consistant à optimiser la présentation ou à promouvoir des contenus, ce qui le prive du bénéfice de l’exonération attachée à l’hébergement. Ainsi, l’acte de suggérer ou de hiérarchiser des informations fournies par des utilisateurs doit donc être encadré juridiquement pour les services de réseau sociaux en ligne.

Par ailleurs, cette clarification de responsabilité, limitée aux contenus à destination des mineurs, doit être conçue pour rester compatible avec l’architecture du DSA. Elle ne crée pas une obligation générale de surveiller les contenus — interdite par le règlement — mais rattache la responsabilité à l’intervention de la plateforme lorsqu’elle choisit de recommander, hiérarchiser et amplifier certains contenus auprès du public. Elle renforce ainsi l’incitation des opérateurs à concevoir et paramétrer leurs systèmes de recommandation de manière neutre, en cohérence avec les obligations de transparence imposées aux plateformes en ligne.

Voir le PDF
Tombé 26/01/2026

Demander à l'ARCOM de publier et mettre à jour une liste indicative des services non interdits mais qui pourraient être préjudiciables au mineurs ou à certains d'entre eux est assurément digne de Sysiphe.

A ce stade la proposition de loi se focalise, sans les définir sur les plateformes de partage de vidéos ou sur les réseaux sociaux, mais cela pourrait aussi concerner les sites internet qui ne cessent d'innover, de solliciter des inscriptions et de proposer des contenus personnalisés. En effet, faute de définition robuste, qui existent pourtant au niveau européen, la proposition pourrait conduire à un travail titanesque.

D'après les données de 2024, 48,6 millions de nouveaux sites web ont été créés cette année. Cela représente environ 177 372 sites par jour. Environ 5,34 % de tous les sites web sont considérés comme nouveaux et ont été créés en 2024. Le total des sites internet reste stable depuis quelques années pour atteindre presque deux milliards de sites dans le monde. A l'heure de la traduction automatique par l'intelligence artificielle, on peut estimer que cet alinéa demandera donc à l'ARCOM de surveiller près de 50 millions de nouveaux sites tous les ans.

SI l'on en reste aux seuls services de plateforme de partages de vidéos, le secteur audiovisuel européen comprend 12 955 services de médias audiovisuels et plateformes de partage de vidéos (décembre 2024) disponibles au sein de l’Europe élargie. Environ trois quarts d’entre eux sont des services linéaires (9 536 chaînes de télévision) et un quart des services non linéaires (3 419 services de VOD et plateformes de partage de vidéos). Ce contrôle ne peut être qu'européen, mais ce n'est pas ce qui est proposé ici.

Par ailleurs la dangerosité d'un site peut être lié à son contenu, à son algorithme, mais aussi voire surtout au temps passé dessus. Tous les sites et services sont donc potentiellement préjudiciables.

De surcroit en précisant "à certains d'entre eux", cela peut concerner tous les mineurs victimes d'épilepsie photosensible qui sont fortement impactés par les stimulii visuels sur les écrans. En France , environ 600 000 personnes sont épileptiques, dont la moitié a moins de 20 ans. Toutes ne sont pas photosensibles, mais chaque service numérique est donc potentiellement préjudiciable.

Il revient donc de supprimer ou de réécrire cet alinéa.

Voir le PDF
Tombé 26/01/2026

Comme le rappelle l'article 1146 du code civil : « Sont incapables de contracter [...] les mineurs non émancipés », un mineur ne peut donc pas conclure un contrat.

Il est "dangereux" d'inscrire dans cette proposition que les contrats conclus avant la date d'entrée en vigueur de cette loi ne seraient plus valables à l'expiration d'un délai de six mois. Ces contrats sont d'ores et déjà nuls et non avenus.

Dans les faits, la proposition de loi aboutit à un contrat entre le mineur et ses administrateurs légaux. 

Rappelons le dispositif proposé : un mineur ne pourrait s'inscrire sur un site qui est listé par un décret du Conseil d'Etat pris après avis de l'ARCOM. Et par un esprit de responsabilité tout à fait inouï des services et plateformes, elle s'interdirait d'accepter ce mineur sur leur plateforme, sans obligation de vérifier leur âge, leur identité, ni même l'accord des parents. Car aucun dispositif n'est prévu dans cette proposition de loi pour le faire.

L'éventuelle sanction serait d'interdire ces services et plateformes sur le territoire national, méconnaissant que c'est une compétence de l'Union, que ce serait contraire aux droits de l'enfant et donc probablement non constitutionnel. Ou plus probablement on interdirait ces réseaux et services pour tous les citoyens, majeurs comme mineurs. C'est dans les faits ce qui s'est passé pour des sites pornographiques qui ne vérifiaient pas réellement les conditions d'âge. La pornographie est encadrée et l'exposition des mineurs interdite. Ce n'est assurément pas le cas du partage de vidéos ou de l'usage de réseaux sociaux.

A ne prévoir aucun dispositif pour vérifier l'âge ou pour limiter l'accès aux services de plateformes ou de réseaux, il n'y a assurément nul contrat, passé, présent ou futur. Cette proposition n'inscrit aucune obligation nouvelle pour les plateformes, mais invitent, incitent les mineurs à ne pas s'inscrire sur ces plateformes et à leurs seuls administrateurs légaux de s'en assurer. 

 

Par ailleurs, on pourrait éventuellement s'interroger sur l'accès aux réseaux et services de plateforme des mineurs anticipés.

Voir le PDF
Tombé 26/01/2026

Cet amendement vise à définir plus précisément le périmètre d’application du texte en excluant les plateformes de partage de vidéos des obligations imposées aux réseaux sociaux par cet article. Le Conseil d’Etat recommande en effet dans son avis de se référer aux définitions établies par le Règlement sur les services numériques et le Règlement sur les marchés numériques. Le recours aux définitions du Règlement sur les services numériques et du Règlement sur les marchés numériques permet d’appliquer une qualification dite distributive: plateforme de partage de vidéos pour une partie du service et réseau social pour l’autre partie.


Le modèle de ces plateformes est par ailleurs significativement différent de celui des réseaux sociaux: si elles reposent également sur la monétisation de contenus, il ne peut leur être imputé ce qui est principalement reproché aux réseaux sociaux comme TikTok, Instagram ou Snapchat, les fonctionnalités sociales invasives et le défilement continu. Les plateformes comme YouTube, Dailymotion ou Vimeo constituent en outre un répertoire de ressources pédagogiques auxquelles les professeurs renvoient largement leurs élèves pour parfaire leurs connaissances.


Dans son ouvrage The Anxious Generation, le chercheur et psychologue social Jonathan Haidt, relève que YouTube est souvent utilisé pour la consommation de contenu (apprendre, regarder des tutoriels ou des vidéos longues) plutôt que pour la comparaison sociale constante et la recherche de validation (likes, commentaires sur son propre physique) qui caractérise les réseaux sociaux d'image.

Par ailleurs, lors de premières évaluations avec l'entreprise Google, responsable du service YouTube, présente en Australie, il apparait que l'interdiction d'accès aux mineurs a abouti à un effet paradoxal. Faute d'identifications spécifiques, YouTube ne peut plus protéger les mineurs de contenus susceptibles de nuire à leur épanouissement physique, mental ou moral.

En effet, ces services sont accessibles avec inscription et processus de vérification d'âge protégeant ainsi les mineurs. Faute d'inscription ou inscription "frauduleuse" comme majeur, tous les contenus deviennent accessibles.

Le mineur ne pourra plus créer un profils spécifique et protecteur sur ces plateformes. Il lui restera à accéder avec le profil de ses parents ou de son foyer ou de la box familiale. 

Les applications Lemon8 et yope, qui ne sont pas concernées par l’interdiction à ce stade en Australie, ont grimpé en flèche dans les classements des téléchargements . Selon Meta, de nombreuses applications n’offrent pas les mêmes fonctionnalités de sécurité que les siennes, comme les comptes spécifiques aux adolescents.



Cet amendement a été écrit avec le soutien de YouTube, filiale de Google-Alphabet.

Voir le PDF
Tombé 26/01/2026

Quelle forme prend cet accord ? En quoi est-il opposable ? comment est-il manifesté aux sites et services ? Comment peut on écrire la nature des contenus accessibles et ceux qui ne le seraient pas ?

Qui contrôle la durée maximale d'utilisation et les heures d'utilisation ? Il s'agit probablement d'un auto-contrôle ou d'un contrôle parental informel. En conséquence, doit-on écrire dans la loi un tel accord intra familial ?

 

Ou est-il envisagé un contrôle par les sites, services ou plateformes des durées d'utilisation des connexions ? d'un appareil ? D'une box partagée ? D'un wifi public ?

 

Si l'idée de maitriser les temps d'écran est louable, on ne peut rester sur un principe non opérationnel.

Cet alinéa doit être réécrit avec nécessairement un avis de la CNIL.

En complément du renforcement des obligations des réseaux sociaux et de l’obligation légale existante sur les terminaux depuis la loi Studer de 2022 (contrôle parental), les fournisseurs d’accès internet devraient également être intégrés à cette chaîne de responsabilités. 

La mise en place d’un contrôle d’accès via la connexion internet constitue un levier complémentaire juridiquement applicable et opérationnel. Ce dispositif pourrait reposer sur un mécanisme de blocage, pour les mineurs, de certains services ou contenus identifiés comme inadaptés par un décret en Conseil d’Etat. Il devrait couvrir l’ensemble des modalités de connexion, tant sur les réseaux mobiles (cartes SIM dédiées aux mineurs) que sur les accès fixes (box internet et réseaux wifi). 

L’intégration des opérateurs télécom dans ce dispositif permettrait d’aligner l’ensemble des acteurs de la chaîne numérique autour d’un objectif commun : 

les fabricants, responsables de l’intégration d’outils de contrôle parental dans les équipements ; 
les opérateurs, responsables de l’accès au réseau et de la mise en oeuvre de mécanismes de filtrage au niveau de la connexion ; 
les plateformes, responsables des contenus, des fonctionnalités et des mécanismes de recommandation. 

Cette approche présente un double avantage. D’une part, elle renforce l’effectivité de la protection des mineurs en multipliant les niveaux de sécurisation. D’autre part, elle évite de faire peser l’ensemble de la responsabilité sur un seul acteur, en organisant une responsabilité partagée et complémentaire entre tous les acteurs techniques de l’écosystème. 

Voir le PDF
Tombé 26/01/2026

Le principe d'une liste noire des services et plateforme s'il peut sembler robuste, sera nécessairement attaqué par les responsables de ces services ou plateformes, surtout si, comme dans cette proposition de loi, nous ne reprenons pas les définitions du DSA et notamment la discrimination par la taille des services et plateforme.

Cette non prise en compte des définitions du DSA est évidemment "nécessaire" pour ne pas montrer que cette PPL empiète sur les compétences exclusives de l'Union européenne.

Par cet amendement, il est proposé de mieux définir ce qui justifierait l'inscription sur une liste noire afin de montrer aux opérateurs qu'elle ne relève pas du simple arbitraire.

 

Cet amendement a été écrit avec le soutien de l'AFNUM et de Samsung.

Voir le scrutin 26/01/2026 00:00
Rejeté 26/01/2026

Depuis la loi du 2 mars 2022 visant à renforcer le contrôle parental sur les moyens d’accès à internet, dite Loi Studer,  les fabricants d'appareils connectés (smartphones, tablettes...) sont obligés d'installer un dispositif de contrôle parental et de proposer son activation gratuite lors de la première mise en service de l'appareil..

Les décrets sont tous parus et cette loi n'est active depuis un peu plus d'un an. A ce stade, les fabricants d'appareils réunis notamment par l'AFNUM (Alliance française des industries du numérique) ont rempli leurs obligations mais n'ont pas encore le recul pour donner des statistiques de réelle mise en place de ce contrôle parental. Soulignons aussi leur travail avec Internetsanscrainte.fr, e-enfance, Tralalère et autres réseaux associatifs qui font de l'éducation et de la sensibilisation au numérique.

Il est proposé par cet amendement d'étendre ce devoir d'information aux fournisseurs d'accès qui eux sont par nature français.

Des dispositifs techniques de contrôle d'accès à partir de la connexion internet (sim mineurs et box internet) peuvent être mis en place et seraient compatibles avec la règlementation européenne et ses lignes directrices. 

Cela nécessite un temps de travail, une concertation et une inscription dans un projet de loi, qui irait bien au-delà de cette proposition de loi. Des députés ont proposé ce type d'amendement, qui ont été rejetés en Commission, devant être retravaillés.

C'est une piste sérieuse et opérante. A ce stade dans la rédaction de l'article 1 réécrit par le Conseil d'Etat, nous pourrions arriver à ce que des plateformes de partage de vidéos  et des services de réseaux sociaux arrivent à devenir inaccessibles à tous les utilisateurs d'une même connexion internet partagée, singulièrement dans les wifis publics.

Voir le PDF
Rejeté 26/01/2026

Cet amendement du groupe Socialistes et apparentés vise à réécrire l’article premier de la présente proposition de loi en cherchant une solution plus consensuelle et moins complexe à appliquer. 

Il s’agit de reprendre le dispositif adopté à l’unanimité par le Sénat il y a moins d’un mois lors de l’examen de la proposition de loi visant à protéger les jeunes des risques liés à l’exposition aux écrans et des méfaits des réseaux sociaux, et à les accompagner vers un usage raisonné du numérique. Cette proposition de loi, à l’initiative de la Sénatrice Catherine Morin-Dessailly du groupe Union Centriste, est la preuve que ce sujet mérite un consensus politique plus large pour protéger les mineurs face aux dangers des réseaux sociaux. 

Ce dispositif s’inscrit également dans la lignée des préconisations du Parlement européen et de la loi dite Marcangeli. 

Il s'agit donc de donner une certaine cohérence à l’action publique en matière de régulation du numérique.  

Ce dispositif prévoit 

- l’interdiction stricte des réseaux sociaux aux utilisateurs âgés de moins de 13 ans – ce qui est la borne d’âge minimal sur la plupart des plateforme et correspond également à l’âge minimal pour consentir au traitement de ses données selon le RGPD, à son article 8 qui précise que « les États membres peuvent prévoir par la loi un âge inférieur pour ces finalités pour autant que cet âge inférieur ne soit pas en dessous de 13 ans ». 

– et l’accord d’un des titulaires de l’autorité parentale pour les utilisateurs âgés de 13 à 16 ans. 

À ce stade, et en l’attente de dispositifs nationaux ou européens de vérification d’âge opérationnels, nous sommes contraints de nous contenter d’un mécanisme de vérification d’âge sur la base d’un référentiel proposé par l’Arcom, après avis de la CNIL. Ce mécanisme devrait être temporaire pour ensuite s’appuyer exclusivement sur un principe de vérification en double anonymat. En tout état de cause, ces mécanismes devront respecter la vie privée des utilisateurs et la protection des données. 

Un mécanisme de sanction des plateformes est prévu en cas de manquement à l’application du présent dispositif. 

Voir le PDF
Tombé 26/01/2026

Dans son rapport d'initiative sur la protection des mineurs en ligne, le Parlement européen s'est largement exprimé en faveur de l'introduction d'une majorité numérique harmonisée au niveau européen,  avec deux bornes d'âge : interdiction d’accès aux réseaux sociaux en dessous de 13 ans, possiblement étendue à d’autres plateformes « à risque » (partage vidéo, chatbots, assistants IA, etc.) ; et accès autorisé aux réseaux sociaux et autres plateformes à risque uniquement via le contrôle parental entre 13 et 16 ans.

Ce rapport a été largement adopté grâce au travail conséquent notamment de la députée européenne, Stéphanie Yon-Courtin.

Ces bornes d'âge correspondent au cadre règlementaire européen existant, à savoir le RGPD qui fixe à 16 ans l'âge par défaut au-delà duquel un enfant peut consentir seul au traitement de ses données personnelles pour les services en ligne, sans l'autorisation parentale. Ces bornes d'âge correspondent également aux conditions générales d'utilisation de la plupart des plateformes de réseaux sociaux, qui interdisent déjà en principe l'inscription aux personnes âgées de moins de 13 ans.

Ces propositions s'inscrivent dans le cadre des travaux en cours au sein de la Commission européenne, qui s'est engagée à faire au cours de l'année à venir des propositions dans le sens d'une majorité numérique européenne. Dans ce cadre, la Commission prévoit de mettre en place et réunir très prochainement un panel d'experts dédié à la majorité numérique. Ce groupe d'experts est censé fournir des recommandations sur la définition des bornes d'âge et l'identification des plateformes et services numériques qui devraient être soumis à une restriction d'accès liée à l'âge.

Par ailleurs, le contrôle d'âge et d'identité, par la mise en place d'une identité numérique européenne est en cours.

Cet amendement est là aussi pour rappeler que les avancées sur le contrôle du numérique, dans toutes ses dimensions, sont européennes. La France a été motrice dans la mise en place de ces règlementations. Il est étonnant aujourd'hui de voir le Sénat et l'Assemblée par deux propositions et le Gouvernement par un théorique projet de loi vouloir légiférer au seul niveau national, sans les moyens légaux et techniques de cette ambition.

Voir le PDF
Retiré 26/01/2026

Cet amendement issu de la proposition de loi de notre collègue la sénatrice Catherine Morin-Desailly a pour objectif d’assurer que tous les enfants de moins de dix-huit ans reçoivent une information et une sensibilisation aux risques pour la santé et la sécurité liés à une utilisation excessive des écrans, ainsi qu’aux effets potentiellement addictifs des réseaux sociaux, en s’appuyant sur les données scientifiques et les études disponibles. 

Voir le PDF
Retiré 26/01/2026

Les réseaux sociaux recourent à des mécanismes destinés à capter l’attention et à prolonger la consommation de contenus. Les mineurs, dont les capacités d’autorégulation sont encore en développement, y sont particulièrement vulnérables. Ces pratiques peuvent entraîner une exposition excessive, préjudiciable à leur santé, à leur concentration et à leur bien‑être.

Conformément aux lignes directrices du Digital Services Act, qui appellent à limiter les interfaces addictogènes et les sollicitations intrusives, le présent amendement vise à interdire aux plateformes de proposer aux mineurs des mécanismes favorisant une consommation ininterrompue ou une sollicitation permanente. Cette mesure renforce la protection des jeunes utilisateurs et responsabilise les fournisseurs de services numériques.

En outre, les réseaux sociaux intègrent de nombreux mécanismes d’incitation à l’achat, dont certains peuvent exercer une influence disproportionnée sur les utilisateurs, en particulier les plus jeunes ou les plus vulnérables. La mise en avant insistante de contenus sponsorisés, les achats intégrés peu transparents ou les sollicitations répétées peuvent conduire à des pratiques commerciales abusives ou à des décisions d’achat insuffisamment éclairées.

Les lignes directrices du Digital Services Act rappellent la nécessité de prévenir les interfaces trompeuses et les mécanismes exploitant la vulnérabilité des utilisateurs, en imposant une conception plus responsable des environnements numériques.

Dans ce cadre, le présent amendement écrit avec l'AFNUM vise à garantir que les mécanismes d’incitation à l’achat intégrés aux plateformes ne présentent aucun caractère dangereux ni abusif. Il contribue ainsi à renforcer la protection des utilisateurs et à responsabiliser les fournisseurs de réseaux sociaux dans la conception de leurs dispositifs commerciaux.

Voir le scrutin 26/01/2026 00:00
Rejeté 26/01/2026

Cet amendement du groupe Écologiste et Social vise à inscrire dans la loi l'obligation faite aux plateformes de réseaux sociaux de mettre à disposition des utilisateurs paramètre de limitation du temps passé sur les réseaux sociaux. L'amendement précise que ce paramètre doit être activé par défaut lors de la création du compte et lors de la mise en place d'un contrôle parental à destination des usagers mineurs. 

Voir le PDF
Tombé 26/01/2026

L’objet de ce sous-amendement est de réserver l’interdiction des réseaux sociaux aux mineurs de moins de 13 ans. 
Il s’agit premièrement d’un amendement de cohérence avec l’article 3, puisque son alinéa 5 rend obligatoire les messages de prévention indiquant que les téléphones et équipements mobiles connectés à internet, et donc aux réseaux sociaux, sont déconseillés aux moins de treize ans – et non pas aux moins de quinze ans. 
Ensuite, plusieurs plateformes fixent déjà actuellement une restriction pour les mineurs de moins de 13 ans, mais elles ne vérifient pas réellement l’âge de leurs utilisateurs. L’abaissement à ce seuil permettrait de faire respecter réellement cette norme. Comme l’indique le rapport de 2024 remis au Président de la République « des enfants âgés de moins de 13 ans sont inscrits en nombre sur des réseaux sociaux, pourtant en théorie interdits au moins de 13 ans. Ainsi, selon cette même étude, 58 % des jeunes de 11- 12 ans en 2021 avaient un compte sur au moins l’un des réseaux sociaux. De son côté, l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) a signalé que « 45 % des Français de 11‑12 ans sont inscrits » sur l’application TikTok.


L’interdiction des réseaux sociaux pour les moins de 15 ans souffre de plusieurs faiblesses : des exemples peu concluants à l’international (Australie, Chine, Corée...), des contournements possibles, un risque de dérive avec des restrictions plus générales des libertés sur internet. Une périmètre plus restreint ciblant d’abord les enfants de moins de 13 ans permet non pas de répondre à tous ces arguments, mais d’en amoindrir la portée. 


La résolution du Parlement européen en faveur d’une interdiction stricte de l’accès aux réseaux sociaux a été fixée à 13 ans, accompagnée de mesures d’encadrement et de limitation des risques pour les mineurs entre 13 et 16 ans. Cette mesure doit s’accompagner d’un large spectre de sensibilisation des enfants comme des parents afin de prévenir des usages non-raisonnés des écrans et des réseaux sociaux. Selon les études citées dans le rapport du Parlement européen, 97 % des jeunes se connectent à internet chaque jour et 78 % des 13 à 17 ans consultent leur appareil au moins une fois par heure. Dans le même temps, un mineur sur quatre présente un usage du smartphone qualifié de « problématique » ou « dysfonctionnel », c’est-à-dire assimilable à une dépendance.


C’est pourquoi cet amendement abaisse l’interdiction des réseaux sociaux de quinze à treize ans. 

Voir le PDF
Tombé 26/01/2026

 

Cet amendement vise à permettre aux chefs d’établissements d’adapter l’interdiction des téléphones portable à la réalité des pratiques et des usages, à travers le règlement intérieur.

 Selon le cadre juridique posé à l’article L. 511-5 du code de l’éducation, l’interdiction de l’utilisation des téléphones est légale et peut également être appliquée aux lycées, à condition que les modalités pratiques soient précisées dans le règlement intérieur de l’établissement. Cette disposition reconnaît la réalité de situations qui varient en fonction du contexte local et des établissements. C’est pourquoi chaque établissement doit pouvoir adapter l’organisation matérielle de cette interdiction en fonction des contraintes géographiques, logistiques et des besoins propres de sa communauté éducative.

À Vanves, le lycée Michelet a d’ores et déjà mis en place l’interdiction du téléphone portable dans les salles de classe, les couloirs et à la cantine, l’autorisant uniquement dans les espaces extérieurs. Le cas de ce lycée permet d'illustrer que des modalités différenciées et fondées sur un projet éducatif propre à l’établissement peuvent être mises en œuvre et produire un effet positif perceptible dans la vie scolaire.

En conséquence, le présent amendement vise à clarifier que, pour les lycées, le chef d’établissement doit disposer de la compétence exclusive pour définir, en concertation avec la communauté éducative, les modalités de mise en œuvre de l’interdiction du téléphone portable, afin que la règle générale s’adapte à la réalité du terrain et qu’elle soit appliquée efficacement, sans rigidité inutile, tout en garantissant le respect de l’objectif d’amélioration des apprentissages et du climat scolaire.

Voir le PDF
Rejeté 26/01/2026

Cet amendement vise à rendre obligatoire la formation des professionnels de santé aux risques engendrés par la surexposition des mineurs aux écrans. En effet, selon une étude ELFE publiée en avril 2023 menée par Santé Publique France, le temps quotidien d’écran des enfants français est en hausse depuis plusieurs années, atteignant 56 minutes à deux ans et plus de 1h34 à cinq ans et demi. Le chiffre dépasse quatre heures pour les enfants âgés de six à dix-sept ans. L’étude rappelle que la surexposition aux écrans d’un enfant de 0 à 3 ans multiplie par trois le risque de développer des troubles primaires du langage, ainsi que des troubles de la motricité.
 
Le manque de formation peut entraîner des erreurs de diagnostic, et face à l’augmentation et la complexité des symptômes, il nous semble nécessaire d’apporter une formation aux professionnels travaillant auprès des enfants.

Voir le PDF
Adopté 26/01/2026

Cet amendement vise à responsabiliser les influenceurs lors de la promotion des réseaux sociaux sur les plateformes en ligne.

Voir le PDF
Rejeté 26/01/2026

Cet amendement vise à créer un rendez-vous commun, à une date fixe, avec tous les acteurs industriels, associatifs et institutionnels pour évaluer l’efficacité des politiques publiques mise en œuvre pour lutter contre l’addiction aux écrans et aux réseaux sociaux des mineurs, échanger sur les bonnes pratiques. Les travaux se feront de façon bénévole et aucune partie prenante ne peut être payée ou recevoir une gratification.

Voir le PDF
Rejeté 26/01/2026

La protection des mineurs en ligne constitue une exigence de protection de l’enfance et de santé publique. Les risques liés aux usages numériques des enfants et des adolescents sont aujourd’hui largement documentés.

 Les grandes plateformes numériques tirent un profit économique considérable des usagers en ligne, basant leurs revenus majoritairement sur la publicité, comme l’atteste le rapport de la commission d’enquête sur tik tok. Ce modèle économique reposant sur le captage de l’attention pour passer le plus de publicité possible et pour pousser à l’achat met en avant des contenus virulents, clivants et néfastes pour garantir l’implication des utilisateurs. Les réseaux sociaux ont donc intérêt à entretenir une forme de dépendance chez les utilisateurs.

Cet amendement vise donc à protéger les mineurs de cette logique de profit en interdisant la publicité pour les moins de quinze ans.
 

Voir le scrutin 26/01/2026 00:00
Rejeté 26/01/2026

La dégradation de la santé mentale des enfants et des adolescents constitue un enjeu majeur de santé publique. Une étude publiée le 21 octobre 2025 dans PLOS Medicine, coordonnée par le professeur Nicolas Hoertel, met en évidence une association forte entre l’usage excessif des réseaux sociaux et l’augmentation du risque de dépression chez les jeunes. Selon cette recherche, cet usage serait associé à 590 000 cas supplémentaires de dépression, 799 décès par suicide et près de 4 milliards d’euros de coûts économiques et sociaux pour la génération née entre 1990 et 2012.

Dans le même temps, la prévalence annuelle de la dépression chez les adolescents est passée de 2 % en 2014 à 9 % en 2021, parallèlement à l’augmentation du temps passé sur les réseaux sociaux. Si cette étude ne permet pas d’établir un lien de causalité direct, elle représente néanmoins le plus haut niveau de preuve scientifique disponible et souligne la nécessité de renforcer les politiques de prévention ciblées.

De plus, le rapport fait au nom de la commission d'enquêtes sur les effets psychologiques de tiktok révèle que certaines plateformes sont conscientes des risques délétères de leurs applications sans pour autant en informer le public. Les principaux effets relevés par les scientifiques et notamment Jonathan Haidt, mettent en lumière des conséquences sur la santé mentale des adolescents : comparaison sociale qui peut entraîner une dévalorisation des jeunes, manque de sommeil, entraînant de l’anxiété, de l’irritabilité, des difficultés d’apprentissage, trouble de l'attention, addiction. 

 

Le présent amendement vise donc à imposer aux plateformes une obligation de sensibilisation aux risques pour la santé mentale, notamment lors du signalement de contenus inappropriés ou dangereux, par l’affichage de messages de prévention et de numéros de soutien psychologique. Cette mesure proportionnée et opérationnelle s’inscrit dans une logique de prévention et de protection renforcée des mineurs.

Voir le PDF
Rejeté 26/01/2026

La loi n°2010‑476 du 12 mai 2010 relative à l’ouverture à la concurrence et à la régulation du secteur des jeux d’argent et de hasard en ligne prévoit à son article 28 que les opérateurs de jeux ou de paris en ligne informent en permanence les joueurs de l’existence du service d’information et d’assistance prévu à l’article 29.

Cet amendement vise donc à s’inspirer de ce qui existe déjà en termes de prévention en l’adaptant aux dangers présents sur les réseaux sociaux.

Voir le scrutin 26/01/2026 00:00
Rejeté 26/01/2026

Par cet amendement, le groupe LFI souhaite s’attaquer réellement aux dangers posés par l’usage des écrans, auprès notamment des enfants, en questionnant le modèle économique des plateformes fondés sur la captation de l’attention des utilisateurs.

Cette captation de l’attention repose sur des outils désormais connu de toutes et tous : fondée sur une captation massive de données et métadonnées numériques personnelles (quitte à ne pas toujours respecter la réglementation en vigueur), ces dernières alimentent des interfaces conçues de manière addictive à travers l’usage d’outils techniques et numériques particulièrement sophistiqués relevant parfois davantage de la manipulation (scrolling infini de contenu, algorithmes de recommandations ultra-personnalisés...) permettant aux plateformes de créer des interactions de plus en plus importante et de monétiser ces dernières (à travers par exemple la mise en avant de publicités, qui est aujourd’hui centrale en termes de retombées économiques générées). Alors que les dangers posés par ce modèle sont de plus en plus documentés – comme le souligne le rapport de la commission d’enquête – les utilisateurs mineurs constituent une cible particulièrement vulnérable face à ces outils : or, la présente proposition de loi ne propose rien pour en réguler les effets.

Par conséquent, nous proposons à travers cet amendement de questionner concrètement ce modèle, en interdisant aux plateformes numériques confrontées au profil d’un utilisateur mineur d’avoir recours à des algorithmes de recommandation pour mettre en avant des contenus plutôt que d’autres, fondé sur l’analyse de ses préférences individuelles. Notre proposition est en réalité parfaitement cohérente avec les dispositions du Règlement européen sur les services numériques, dont l’article 28 sur la protection des mineurs prévoit notamment que « Les fournisseurs de plateformes en ligne ne présentent pas sur leur interface de publicité qui repose sur du profilage [...] en utilisant des données à caractère personnel concernant le destinataire du service dès lors qu’ils ont connaissance avec une certitude raisonnable que le destinataire du service est un mineur ». C’est seulement à ce prix que nous pourrons protéger les mineurs des dangers auxquels les expose les réseaux sociaux, tout en s’attaquant structurellement aux causes de cette exposition : l’absence de régulation des plateformes.

Voir le scrutin 26/01/2026 00:00
Rejeté 26/01/2026

La loi votée en 2022 prévoyait un contrôle par défaut de l’accès des enfants à certaines applications, sans que les parents n’aient rien à faire. Mais les outils de contrôle du temps passé devant les écrans n’ont pas été mise en place, par défaut. Les parents doivent trouver l’outil adéquat au milieu d’une offre pléthorique, gratuite ou non et comprendre comment l’installer et l’utiliser. Ils veulent des logiciels faciles d’utilisation pour ne pas être dépossédés de leurs rôles.

Ainsi, cet amendement vise donc à rajouter au contrôle parental un dispositif du contrôle d’écran déjà préinstallé sur les appareils électroniques.

Voir le PDF
Tombé 26/01/2026

Cet amendement du groupe Écologiste et Social vise à assortir l'obligation faite aux fabricants de téléphone et aux plateformes de réseaux sociaux en ligne d'agir en faveur de la prévention et de la sensibilisation aux risques numériques d'une sanction en cas de manquement à cette obligation pouvant aller jusqu'à la fermeture temporaire du site internet du fournisseur de services de réseaux sociaux en ligne et une sanction financière de 1 % du chiffre d'affaires réalisé en France. 

Voir le PDF
Rejeté 26/01/2026

Le présent amendement du groupe Écologiste et Social vise à distinguer la responsabilité entre un simple hébergement, neutre, des contenus en ligne destinés aux mineurs et une intervention active au moyen d’un algorithme de mise en avant des contenus au moyen d’un classement fondé sur le profilage du destinataire du service, en la reconnaissance comme une activité d’édition.

En effet, le rapport de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs a mis en évidence le rôle déterminant des mécanismes de recommandation dans l’exposition des jeunes à des contenus dangereux, en décrivant un « piège algorithmique » susceptible d’enfermer des mineurs dans des spirales de contenus violents, choquants ou faisant la promotion de l’automutilation ou du suicide.

Le règlement DSA définit le « système de recommandation » comme un dispositif, entièrement ou partiellement automatisé, permettant de suggérer ou de hiérarchiser des informations sur l’interface d’une plateforme. Il maintient par ailleurs le régime d’exemption de responsabilité de l’hébergeur, sous conditions, pour les informations stockées à la demande d’un destinataire du service. La jurisprudence de la Cour de justice de l’Union européenne précise toutefois que le prestataire ne peut être regardé comme un intermédiaire « neutre » lorsqu’il joue un rôle actif, notamment en apportant une assistance consistant à optimiser la présentation ou à promouvoir des contenus, ce qui le prive du bénéfice de l’exonération attachée à l’hébergement. Ainsi, l’acte de suggérer ou de hiérarchiser des informations fournies par des utilisateurs doit donc être encadré juridiquement pour les services de réseau sociaux en ligne.

Par ailleurs, cette clarification de responsabilité, limitée aux contenus à destination des mineurs, doit être conçue pour rester compatible avec l’architecture du DSA. Elle ne crée pas une obligation générale de surveiller les contenus — interdite par le règlement — mais rattache la responsabilité à l’intervention de la plateforme lorsqu’elle choisit de recommander, hiérarchiser et amplifier certains contenus auprès du public. Elle renforce ainsi l’incitation des opérateurs à concevoir et paramétrer leurs systèmes de recommandation de manière neutre, en cohérence avec les obligations de transparence imposées aux plateformes en ligne.

Voir le PDF
Tombé 26/01/2026

Si le texte définit les principes d’interdiction et de conditionnement de l’accès, il ne précise pas les modalités selon lesquelles l’âge du mineur et l’existence de l’accord parental doivent être vérifiés. En l’absence de telles garanties, la mise en œuvre du dispositif pourrait reposer sur des mécanismes purement déclaratifs, aisément contournables ou conduire à des pratiques excessives de collecte et de conservation de données à caractère personnel. Le présent amendement vise à combler cette lacune en encadrant strictement les modalités de vérification, sans remettre en cause l’économie générale du texte. Il précise que la vérification de l’âge du mineur et, le cas échéant, de l’accord parental ne peut reposer exclusivement sur une simple déclaration de l’utilisateur afin de garantir l’effectivité du dispositif. Il rappelle également que les solutions techniques mises en œuvre doivent être strictement limitées à la seule finalité de cette vérification et ne peuvent donner lieu à la conservation, à la réutilisation ou au recoupement de données permettant l’identification du mineur ou de ses représentants légaux.

Voir le PDF
Rejeté 26/01/2026

Le présent amendement du groupe Écologiste et Social vise à distinguer la responsabilité entre un simple hébergement, neutre, des contenus en ligne destinés aux mineurs et une intervention active au moyen d’un algorithme de mise en avant des contenus au moyen d’un classement fondé sur le profilage du destinataire du service, en la reconnaissance comme une activité d’édition.

En effet, le rapport de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs a mis en évidence le rôle déterminant des mécanismes de recommandation dans l’exposition des jeunes à des contenus dangereux, en décrivant un « piège algorithmique » susceptible d’enfermer des mineurs dans des spirales de contenus violents, choquants ou faisant la promotion de l’automutilation ou du suicide.

Le règlement DSA définit le « système de recommandation » comme un dispositif, entièrement ou partiellement automatisé, permettant de suggérer ou de hiérarchiser des informations sur l’interface d’une plateforme. Il maintient par ailleurs le régime d’exemption de responsabilité de l’hébergeur, sous conditions, pour les informations stockées à la demande d’un destinataire du service. La jurisprudence de la Cour de justice de l’Union européenne précise toutefois que le prestataire ne peut être regardé comme un intermédiaire « neutre » lorsqu’il joue un rôle actif, notamment en apportant une assistance consistant à optimiser la présentation ou à promouvoir des contenus, ce qui le prive du bénéfice de l’exonération attachée à l’hébergement. Ainsi, l’acte de suggérer ou de hiérarchiser des informations fournies par des utilisateurs doit donc être encadré juridiquement pour les services de réseau sociaux en ligne.

Par ailleurs, cette clarification de responsabilité, limitée aux contenus à destination des mineurs, doit être conçue pour rester compatible avec l’architecture du DSA. Elle ne crée pas une obligation générale de surveiller les contenus — interdite par le règlement — mais rattache la responsabilité à l’intervention de la plateforme lorsqu’elle choisit de recommander, hiérarchiser et amplifier certains contenus auprès du public. Elle renforce ainsi l’incitation des opérateurs à concevoir et paramétrer leurs systèmes de recommandation de manière neutre, en cohérence avec les obligations de transparence imposées aux plateformes en ligne.

Voir le PDF
Adopté 26/01/2026

Le présent amendement du groupe Écologiste et Social vise à distinguer la responsabilité entre un simple hébergement, neutre, des contenus en ligne destinés aux mineurs et une intervention active au moyen d’un algorithme de mise en avant des contenus au moyen d’un classement fondé sur le profilage du destinataire du service, en la qualifiant d’activité d’édition.

En effet, le rapport de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs a mis en évidence le rôle déterminant des mécanismes de recommandation dans l’exposition des jeunes à des contenus dangereux, en décrivant un « piège algorithmique » susceptible d’enfermer des mineurs dans des spirales de contenus violents, choquants ou faisant la promotion de l’automutilation ou du suicide.

Le règlement DSA définit le « système de recommandation » comme un dispositif, entièrement ou partiellement automatisé, permettant de suggérer ou de hiérarchiser des informations sur l’interface d’une plateforme. Il maintient par ailleurs le régime d’exemption de responsabilité de l’hébergeur, sous conditions, pour les informations stockées à la demande d’un destinataire du service. La jurisprudence de la Cour de justice de l’Union européenne précise toutefois que le prestataire ne peut être regardé comme un intermédiaire « neutre » lorsqu’il joue un rôle actif, notamment en apportant une assistance consistant à optimiser la présentation ou à promouvoir des contenus, ce qui le prive du bénéfice de l’exonération attachée à l’hébergement. Ainsi, l’acte de suggérer ou de hiérarchiser des informations fournies par des utilisateurs doit donc être encadré juridiquement pour les services de réseau sociaux en ligne.

Par ailleurs, cette clarification de responsabilité, limitée aux contenus à destination des mineurs, doit être conçue pour rester compatible avec l’architecture du DSA. Elle ne crée pas une obligation générale de surveiller les contenus — interdite par le règlement — mais rattache la responsabilité à l’intervention de la plateforme lorsqu’elle choisit de recommander, hiérarchiser et amplifier certains contenus auprès du public. Elle renforce ainsi l’incitation des opérateurs à concevoir et paramétrer leurs systèmes de recommandation de manière neutre, en cohérence avec les obligations de transparence imposées aux plateformes en ligne.

Voir le PDF
Tombé 26/01/2026

Comme l'explique le rapport de la Commission d'enquête sur Tiktok, ce réseau social a en effet imposé un nouveau format pour les réseaux sociaux, à savoir le défilement infini de vidéos courtes, ce qui a eu pour effet de favoriser la diffusion de contenus extrêmes, ainsi que le décrit M. Petit : « Tiktok joue vraiment un rôle de vitrine par rapport aux autres plateformes. Les contenus sont beaucoup plus courts et potentiellement plus viraux que ceux publiés sur d’autres médias sociaux, ce qui permet aux influenceurs d’attirer un public qui ne les connaît pas nécessairement. TikTok soumet directement des contenus aux utilisateurs, sans qu’ils aient forcément le temps d’identifier leur créateur, ni même leur titre. Vous êtes donc directement exposé à des images et à des discours, ce qui laisse plus de chance à des propos plus radicaux, différents de votre idéologie ou de votre vision du monde, de vous convaincre ».

Tant le défilement sans fin et sans temps mort entre les contenus que le format court et facile à consommer (parfois dénommé « snack content ») sont de nature à désorienter les utilisateurs, notamment en leur faisant perdre la notion du temps.

Depuis plusieurs années l’ensemble des plateformes numériques, créateurs de contenus et publicitaires adoptent les codes des formats courts, touchant l’ensemble des tranches d’âge. En 2025, plus de 65% des 35-54 ans consomment des vidéos courtes chaque semaine, selon Statista. Le défilement infini impacte d’autant plus les mineurs qui se retrouvent piégés dans ce défilement infini. L’immaturité neurodéveloppementale qui caractérise les enfants et les adolescents se traduit par une incapacité cognitive structurelle à se limiter et à s’autoréguler face aux usages numériques. 

Le développement des techniques de captation de l’attention développées par les plateformes numériques depuis le milieu des années 2010, est largement fondé sur l’analyse comportementale, la captation de l’attention et l’optimisation du temps d’engagement. Ces dispositifs sont explicitement conçus pour maintenir les utilisateurs dans des logiques de dépendance et de captation prolongée, y compris les plus jeunes. 

Il convient donc d'interdire le défilement infini de vidéos pour protéger les mineurs de moins de quinze ans, particulièrement vulnérables. 

Voir le PDF
Tombé 26/01/2026

Amendement rédactionnel, afin de bien préciser que seuls les mineurs de moins de 15 ans sont concernés, et non l'ensemble des mineurs. 

Voir le PDF
Rejeté 26/01/2026

Cet amendement du Groupe Écologiste et Social vise à rétablir les mesures de prévention prévues dans la première mouture de la proposition de loi, supprimées en commission, une interdiction simple ne pouvant être efficace et pertinente sans mesures de prévention. 

Le nouvel article 4 reprendrait ainsi la version initiale de l'article, complété d'une sensibilisation et d'une formation au fonctionnement des algorithmes et, plus largement, des services numériques fondés sur des mécanismes de captation de l’attention. 

Il s’agit notamment de permettre une sensibilisation au fonctionnement de ces plateformes, reposant sur les algorithmes et les principes de l’économie de l’attention. Une compréhension approfondie de ces mécanismes, ainsi que de leur emprise sur les utilisateurs, est essentielle pour aider les élèves — futurs adultes et professionnels — à mieux appréhender les logiques à l’œuvre dans l’industrie des plateformes numériques, qu’il s’agisse de réseaux sociaux ou d’autres services.

Cette meilleure connaissance des stratégies déployées par les acteurs du numérique doit ainsi contribuer à former de jeunes utilisateurs capables de développer un usage critique, éclairé et responsable des outils numériques. 

Voir le PDF
Rejeté 26/01/2026

Par cet amendement, le groupe LFI souhaite s’assurer que la réforme proposée des programmes scolaires soit réellement effective.

Nous avons toujours défendu une réforme des programmes scolaires afin d’y intégrer une sensibilisation aux dangers du numérique – comme lors des discussions autour du projet de loi visant à « sécuriser et réguler l’espace numérique » (PJL SREN) – car nous considérons que seule une approche préventive permet de lutter durablement contre les dangers d’une exposition incontrôlée. Or, en matière éducative (comme partout ailleurs), la Macronie nous a habitué à lancer des projets de réformes sans moyens supplémentaires alloués, ce qui s’est vérifié dans toutes les dernières réformes gouvernementales en la matière. Or, sans moyens supplémentaires, cette réforme des programmes risque de rester lettre morte, alors que son importance est désormais centrale au vu des enjeux soulevés.

Cette question des moyens est d’autant plus centrale que l’examen actuel du projet de loi de finances pour 2026 prévoit en matière éducative des mesures budgétaires particulièrement austéritaires, comme la suppression de 4 018 postes d’enseignants, alors même qu’il est déjà difficile aujourd’hui de terminer l’étude du programme scolaire en raison notamment du manque de professeurs présents dans les classes. Par conséquent, nous souhaitons ouvrir la réflexion sur les moyens alloués à cette réforme des programmes scolaires, afin que chaque élève en France puisse en bénéficier et être mieux armé face aux dangers du numérique.

Voir le PDF
Rejeté 26/01/2026

Cet amendement du Groupe Écologiste et Social vise à réintégrer l’article 2, initialement prévu par la proposition de loi présentée en commission.

Pour rappel, cet article cherche à imposer aux personnes dont l’activité consiste à fournir des services d’hébergement de concourir à la lutte contre la diffusion des contenus constituant de la propagande ou de la publicité en faveur de moyens de se donner la mort. 

Alors que l’article 6 de la loi pour la confiance dans l'économie numérique établit des obligations pour les plateformes de lutter contre les contenus illicites, la liste des infractions concernées est à ce jour incomplète puisqu’elle ne comprend pas celle mentionnée à l’article 223-14 du code pénal, à savoir la propagande ou la publicité en faveur de moyens de se donner la mort. Ce type de contenu, aux effets potentiellement dévastateurs, n’est ainsi pas toujours traité avec la diligence requise, alors même qu’il expose les utilisateurs les plus vulnérables, et en particulier les mineurs, à des risques majeurs. Cet article vise donc à compléter la LCEN pour élargir le champ des obligations des plateformes pour protéger leurs utilisateurs, et notamment les plus jeunes."

Enfin, cet article a aussi pour but de renforcer les peines complémentaires permettant de suspendre les comptes d’accès à des plateformes en ligne utilisés afin de commettre certaines infractions, ainsi que pour renforcer l’amende pour les fournisseurs qui ne procéderaient pas au blocage du compte problématique.

Cet article vise enfin à étendre le champ des délits pour laquelle cette peine peut être encourue à la propagande ou la publicité, quel qu’en soit le mode, en faveur de produits, d’objets ou de méthodes préconisés comme moyens de se donner la mort.

Il s’agit par cet article de mettre en œuvre les recommandations n° 9 et 37 du rapport de la Commission d’enquête sur les effets psychologiques de TikTok sur les mineurs.

Voir le PDF
Rejeté 26/01/2026

Les fournisseurs de services de réseaux sociaux polluant l'espace public numérique doivent participer à son assainissement et ainsi à la lutte contre les violences des contenus numériques et leurs effets délétères sur la santé mentale.
 
Le rapport de mission gouvernementale "Comprendre et combattre le harcèlement scolaire" de 2020 a permis de faire apparaitre pour la première fois l'idée d'une contribution financière des entreprises du numérique qui permettrait de financer la lutte contre les violences en ligne.
Pour l'auteur du rapport, le constat est simple : "une entreprise numérique qui gère insuffisamment son contenu développe, malgré elle, un terrain propice à la prolifération des contenus haineux et du cyber-harcèlement".
 
Le rapport d’enquête sur les effets psychologiques de Tik Tok sur les mineurs de 2025 atteste de contenus violents, portant atteinte à la santé mentale des utilisateurs et d’algorithmes alimentant la dépendance. La violence en ligne prend ainsi différentes formes et se diffuse largement. Les entreprises du numérique participant à la diffusion et à l’exposition de ces contenus, dont certains sont monétisés, doivent contribuer à lutter contre les effets néfastes des contenus et sensibiliser les utilisateurs aux dangers auxquels ils s'exposent.
 
Cette contribution pourrait se faire par l'application du principe de "pollueur-payeur" aux entreprises numériques générant du contenu sur le modèle de celui appliqué aux entreprises causant trop d'atteintes à l'environnement. En effet, selon l'article L110-1 du Code de l'environnement "les frais résultants des mesures de prévention, de réduction de la pollution, et de lutte contre celle-ci doivent être supportés par le pollueur". Cette contribution pourrait aussi se faire par un fléchage de la "taxe GAFA" adoptée en France depuis le 1er janvier 2019.
 
Cet amendement vise donc à demander au Gouvernement de rendre un rapport sur la création même d'un tel fonds ainsi que sur son financement et sa redistribution.

Voir le PDF
Rejeté 26/01/2026

Cet amendement du Groupe Écologiste et Social vise à réintégrer l’article 3, initialement prévu par la proposition de loi présentée en commission.

Pour rappel, l’article de la proposition de loi propose d’insérer deux nouveaux articles au code de la santé publique afin de mieux informer la population sur les risques liés à l’usage des réseaux sociaux, notamment chez les plus jeunes.

Cet article vise dans un second temps à imposer sur les emballages des smartphones et autres terminaux connectés à internet la mention : « déconseillé aux mineurs de moins de 13 ans », et ce, en cohérence avec les recommandations de la commission d’experts sur l’impact de l’exposition des jeunes aux écrans, afin de sensibiliser les parents sur les balises d’âge fixées par cette commission dans un contexte de pression sociale très forte sur l’équipement des jeunes en smartphones de plus en plus tôt.

Cet amendement vise à rétablir la mise en œuvre des recommandations n° 16 et 39 du rapport de la Commission d’enquête sur les effets psychologiques de TikTok sur les mineurs.

Voir le PDF
Rejeté 26/01/2026

Cet amendement du Groupe Écologiste et Social vise à réintégrer l’article 5, initialement prévu par la proposition de loi présentée en commission.

L’article 5 propose qu’un rapport soit remis au Parlement 3 ans après la promulgation de cette loi afin d’évaluer le niveau de respect des plateformes du droit européen et le niveau de dangerosité potentielle qu’ils représenteront à cette date pour les mineurs, afin d’avoir une base solide et récente afin d’évaluer la possibilité de faire évoluer la limite légale d’âge d’accès aux réseaux sociaux.

Il s’agit par cet article de mettre en œuvre la recommandation n° 31 du rapport de la Commission d’enquête sur les effets psychologiques de TikTok sur les mineurs.

Voir le PDF
Tombé 26/01/2026

Cet amendement des députés socialistes et apparentés vise à garantir une protection pour recueillir l’accord d’un administrateur légal d’un mineur de 15 ans afin d’accéder à un réseau social autorisé. 

Il prévoit que les conditions de recueil sont conformes à un référentiel fixé par l’Arcom après avis de la CNIL, ce référentiel prévoyant explicitement l’interdiction de conservation des données de recueil par les plateformes concernées. En effet, on peut supposer que l’établissement d’un tel accord comporte de nombreuses données personnelles très sensibles que nous ne souhaitons en aucun cas laisser aux plateformes, mais doivent servir uniquement à établir l’autorisation d’accès à celles-ci. 

Par ailleurs, au-delà du principe auquel nous souscrivons, cette mesure soulève des questions techniques et de procédure. Nous attendons des précisions concernant les modalités d’application (qui est en charge du recueillement ? par quel moyen ? comment justifier de la qualité d’administrateur légal ?). 

Voir le PDF
Adopté 26/01/2026

Les réseaux sociaux peuvent être dangereux pour les mineurs : harcèlement, contenus choquants, manipulations, problèmes de santé mentale, incitations à se donner la mort et utilisation des données personnelles.
Pour protéger les mineurs, il est important de mettre en place des règles strictes. Cela permettra de garantir leur sécurité en ligne. Les plateformes, les parents, les mineurs et les autorités doivent tous être responsables.
Cet article vise à règlementer l'accès des mineurs aux réseaux sociaux, de les responsabiliser ainsi que leurs responsables légaux, de surveiller leur utilisation et de les sensibiliser aux dangers.

Voir le PDF
Rejeté 26/01/2026

Cet amendement des députés socialistes et apparentés vise à décaler l’entrée en vigueur du présent article au 1er septembre 2027. 

Compte-tenu des nombreuses prérogatives nouvelles confiées à l’Arcom, du temps nécessaire aux procédures de notification à la Commission européenne (qui impose un délai supplémentaire de 3 à 6 mois) et d’adoption définitive de la présente loi nous suggérons de décaler son entrée en vigueur pour laisser le temps aux administrations concernées de s’y préparer et de prévoir l’ensemble des mécanismes de protection des utilisateurs. 

Voir le PDF
Tombé 26/01/2026

Cette proposition de loi pose une interdiction fondamentale d’accès aux réseaux sociaux pour les mineurs de moins de 15 ans. Associée à un programme de sensibilisation tout au long de la scolarité, elle permettra aux jeunes d’accéder aux réseaux sociaux à partir de 15 ans avec une compréhension approfondie des enjeux et des risques liés à leur utilisation. Il convient toutefois de souligner qu’à 15 ans un adolescent n’est pas encore pleinement autonome ni indépendant. Jusqu’à sa majorité il reste en effet sous la responsabilité de ses parents, qui doivent pouvoir exercer un droit de regard sur les activités de leur enfant, dans le respect de la vie privée mentionnée à l’article 9 du code civil. 

Il est à ce titre essentiel de conserver une analogie avec la vie courante. En effet, si l’article 1148 du code civil autorise les mineurs à accomplir seuls des « actes courants autorisés par la loi ou l’usage », comme certains achats, de nombreuses activités nécessitent l’autorisation du représentant légal. Ainsi en va-t-il tout simplement des activités extrascolaires. 

Compte tenu des effets dévastateurs et délétères des réseaux sociaux sur nos enfants, qui ne sont plus à démontrer, il ne parait pas concevable aujourd’hui que l’on puisse les laisser y accéder sans  contrôle ou autorisation parentale. Faute de jurisprudence étoffée qui préciserait spécifiquement si la création d'un compte sur un réseau social relève ou non d'un acte courant, il revient au législateur de prendre ses responsabilités et de le faire. Il parait nécessaire que nous changions de paradigme et de ce fait, que nous inscription dans la loi, comme le propose cet amendement, que la création d'un compte sur un réseau social n'entre pas dans cette catégorie d'acte courant. 

Voir le PDF
Tombé 26/01/2026

Cet amendement des députés socialistes et apparentés vise à recentrer l’obligation d’information vers les entreprises du numérique, premières responsables des dangers liés à l’exposition aux écrans et aux contenus sur les réseaux sociaux. 

Les administrateurs légaux des enfants sont déjà tenus de droits et devoirs ayant pour finalité l’intérêt de l’enfant (article 371-1 du Code civil). Cette obligation supplémentaire est redondante et instaure le sentiment que la responsabilité est partagée, alors même que ce sont les plateformes qui ont fait du business du sordide leur modèle économique. 

 

Voir le PDF
Rejeté 26/01/2026

Par cet amendement, le groupe LFI s’oppose à l’extension du dispositif « Portable en pause » aux lycées. Mesure phare du plan gouvernemental et d’Emmanuel Macron pour lutter contre les effets néfastes des réseaux sociaux chez les mineurs, l’extension dans la précipitation de l’interdiction des téléphones portables au lycée est totalement irréaliste et fait fi des nombreuses réserves soulevées par les syndicats.

En effet, alors que le dispositif a été généralisé au collège à la rentrée scolaire 2025, selon une enquête menée par le syndicat SNPDEN-UNSA en septembre dernier, seuls 8,5 % des principaux de collèges se sont conformés au dispositif. A contrario, près de 67 % ont assuré qu’ils ne comptaient pas appliquer de nouvelles mesures et 25 % qu’ils ne savaient pas encore. Parmi les principales raisons évoquées, figurent notamment la question centrale du financement de la mesure (alors que sa mise en place nécessiterait par exemple l’augmentation des dotations versées aux collectivités territoriales, et notamment les régions pour les lycées, afin de financer des équipements supplémentaires dans les établissements pour conserver les téléphones portables, mais que le budget austéritaire actuellement examiné à l’Assemblée ne le prévoit pas) mais également de nombreuses questions très concrètes en termes d’organisation et de périmètre (responsabilité en cas de vol de l’appareil, recrutements supplémentaires d’assistants d’éducation pour faire appliquer l’interdiction...).

Toutes ces raisons expliquent les réactions très mitigées des syndicats sur la question. Ainsi, Isabelle Vuillet, co-secrétaire générale de la CGT Educ’action (Le Parisien, 07/01/26) rappelle qu’« Il est déjà compliqué de faire respecter l’interdiction au collège, alors au lycée, nous avons un vrai doute sur la faisabilité. Cela ressemble à un effet de com du Gouvernement ». De son côté, Sophie Vénétitay, secrétaire générale du SNES-FSU (RMC, 29/11/25) était également très claire à ce sujet : « On ne peut pas vouloir généraliser une mesure qui est un échec » alors même que « Plus de la moitié des collèges n’ont pas pu appliquer le dispositif. Soit parce qu’ils n’ont pas eu les moyens de s’équiper ou tout simplement par manque de personnel ». Et à Christelle Kauffmann, proviseure de lycée dans le Tarn et membre de l’exécutif du SNPDEN, le principal syndicat des chefs d’établissement, d’ajouter Nous ne contestons pas qu’il y ait un problème d’addiction des jeunes au portable. Mais il s’agit d’un problème de société qui, une fois de plus, retombe sur l’école. » (Le Parisien, 07/01/26).

Par conséquent, nous souhaitons la suppression de l’extension du dispositif, d’autant plus qu’en l’état actuel du droit (art. L. 511‑5 du code de l’éducation) : une modification du règlement intérieur d’un lycée permet déjà d’« interdire l’utilisation par un élève des appareils [...] dans tout ou partie de l’enceinte de l’établissement ainsi que pendant les activités se déroulant à l’extérieur de celle-ci ».

Voir le PDF
Rejeté 26/01/2026

Le présent amendement du Groupe Écologiste et Social vise à renforcer la protection des mineurs face à l’exposition précoce aux écrans en étendant l’interdiction de la publicité destinée aux enfants de moins de 14 ans pour les téléphones portables à l’ensemble des équipements dotés d’un écran : téléphones, tablettes, ordinateurs, téléviseurs, montres connectées et dispositifs assimilés.

La publicité promouvant ces appareils ou leur usage n’est pas encadrée, notamment en ce qui concerne la publicité visant directement les mineurs. Cette libre publicité de ces appareils vient en contradiction avec les injonctions parentales, scolaires et sanitaires.

Interdire la publicité visant les mineurs de moins de 14 ans vise à réduire l’influence sur un public vulnérable face à ces sollicitations.

La disposition est reprise d’une proposition du groupe sénatorial Groupe Écologiste – Solidarité et Territoires.

Sur la recevabilité de cet amendement : l'article 3 de la présente proposition de loi cherchait à réguler la publicité en faveur des réseaux sociaux ; au global, la proposition de loi cherche à limiter la surexposition des enfants aux écrans. La régulation de la publicité en faveur d'objets numériques pour les mineurs est directement liée à ces objectifs. 

Voir le PDF
Rejeté 26/01/2026

Le présent amendement du Groupe Écologiste et Social vise à renforcer l’information délivrée aux parents sur les alternatives aux usages des écrans lors des entretiens conduits par les services de protection maternelle et infantile (PMI). Ce dispositif est directement repris d’une proposition portée par le groupe sénatorial Écologiste - Solidarité et Territoires.

Il prévoit d’intégrer explicitement, dans le cadre de ces entretiens de prévention, une information systématique relative aux alternatives aux écrans par les professionnels de la petite enfance.

L’objectif est d’assurer est de renforcer l’accompagnement des parents face aux usages numériques précoces, par la promotion de pratiques favorables au développement psychomoteur, social et cognitif des jeunes enfants.

Cette disposition contribue ainsi à consolider la politique de prévention et de soutien à la parentalité portée dans le champ de l’exposition des jeunes enfants aux écrans.

Voir le PDF
Tombé 26/01/2026

Cet amendement de repli vise à respecter l’avis du Conseil d’État qui demande de compléter la proposition de loi afin de "mentionner expressément" que l’interdiction d’usage ne s’applique pas pour les élèves qui suivent, dans les lycées, une formation d’enseignement supérieur.

Or, la rédaction proposée par la rapporteure mentionne uniquement une possibilité de déroger à cette interdiction pour les étudiants, par la voie du règlement intérieur. Nous pensons que cette exemption doit être de principe pour tous les étudiants. 

À minima, nous demandons donc à ce que les règlements intérieurs des établissements visés le prévoient de manière systématique.

Voir le PDF
Tombé 26/01/2026

Cet amendement vise à exclure spécifiquement les étudiants du dispositif d’interdiction des portables au lycée. 

De nombreux lycées disposent de formations de l’enseignement supérieur et nous estimons que leur interdire le téléphone portable constitue une rupture d’égalité manifeste avec les étudiants des autres établissements d’enseignement supérieur. 

Par cet amendement, il s'agit de respecter l’avis du Conseil d’État qui demande de compléter la proposition de loi afin de "mentionner expressément" que l’interdiction d’usage ne s’applique pas pour les élèves qui suivent, dans les lycées, une formation d’enseignement supérieur.

Or, la rédaction proposée par la rapporteure mentionne uniquement une possibilité de déroger à cette interdiction pour les étudiants, par la voie du règlement intérieur. Nous pensons que cette exemption doit être de principe pour tous les étudiants. 

 

Voir le PDF
Rejeté 26/01/2026

Lors des auditions menées par la rapporteure, les associations nous ont interpellé sur l’existence de dispositifs facilitant l’exposition des jeunes enfants à des écrans via des fixations pour poussettes ou lits pour enfants. Ces dispositifs contribuent à l’accroissement de l’exposition de plus en plus précoce des enfants aux écrans,contrevenant de fait aux recommandations des autorités sanitaires interdisant l’exposition aux écrans pour les enfants de moins de 3ans et de façon limitée pour les moins de 6 ans.

Ces dispositifs sont en libre accès sur les plateformes de vente en ligne. 

Les outils qui ont explicitement et systématiquement pour vocation de favoriser le temps d’écran des enfants, souvent les plus jeunes, malgré le consensus scientifique sur leur dangerosité doivent être interdits. C’est l’objet de cet amendement. 

Voir le PDF
Tombé 26/01/2026

Le présent amendement vise à assouplir l’interdiction générale de l’utilisation des téléphones portables dans les lycées que cette proposition de loi introduit. Son objet est de permettre d'autoriser son usage dans les espaces de récréation et de restauration, afin d’introduire des temps de « respiration » essentiels et en accord avec l’exigence de concentration qui s’impose pendant les temps pédagogiques. 


Une interdiction absolue, sans distinction de lieux ou de moments, peut s’avérer contre-productive pour l'apprentissage de la responsabilité numérique.


Deux objectifs essentiels sont ici poursuivis : 


-               Le passage d’une logique de prohibition à une logique d’éducation : La déconnexion totale imposée par la loi ne permet pas d'accompagner l'élève dans l'acquisition de bons réflexes (respect du droit à l'image, limitation du temps d'écran, civilité numérique). Autoriser l'usage dans la cour de récréation offre un cadre concret pour une éducation aux médias en situation réelle, sous le regard de la vie scolaire.
-               La cohérence avec les besoins de la vie quotidienne : Pour de nombreuses familles, le téléphone est un outil de coordination essentiel, notamment lors des temps de pause ou en fin de journée. Permettre son usage hors des espaces d'enseignement répond à une demande sociale légitime sans pour autant perturber la concentration nécessaire aux apprentissages.
 
En limitant l’interdiction aux espaces strictement dédiés à l’enseignement, cet amendement assure un juste équilibre entre l'exigence de concentration pédagogique et l'apprentissage de la citoyenneté numérique.

Voir le PDF
Non renseignée Date inconnue

Par cet amendement du groupe LFI, nous souhaitons souligner l'importance de doter l'Autorité de régulation de la communication audiovisuelle et numérique (Arcom) des moyens suffisants pour faire appliquer les obligations légales qui s'imposent aux plateformes numériques exerçant leur activité en France.

Au fil des années, l'Arcom s'est vu confiée toujours plus de missions par différents textes relevant à la fois du droit national et du droit européen qui ont étendu sa compétence à de nouveaux acteurs du numérique, tels que les services de médias audiovisuels à la demande et les plateformes de partage de contenus (réseaux sociaux, moteurs de recherche). A titre d'illustration, le règlement européen sur les services numériques - dont le contrôle de l'application a été confié à l'Arcom - vise à responsabiliser ces acteurs et protéger la société et les individus face aux contenus illégaux, tels que les contenus terroristes, pédopornographiques, haineux ou discriminatoires, mais aussi dans la lutte contre la désinformation et les algorithmes addictifs ou trompeurs, et prévoit des dispositions particulières en ce qui concerne la protection des mineurs.

Or, lors des auditions organisées par la commission d’enquête sur Tiktok, M. Ajdari, président de l’Arcom, relevait que les effectifs consacrés à l’application du DSA sont insuffisants (« actuellement, 23 équivalents temps plein (ETP) se consacrent au règlement sur les services numériques, sur un effectif total de 350 personnes […] nous connaissons les contraintes budgétaires, mais l’Arcom devra vraisemblablement monter en puissance si elle veut conduire elle-même des études et démultiplier son action – nos collègues allemands comptent une soixantaine de personnes à leur disposition pour un périmètre de compétences comparable. »). Par conséquent, la présente rapporteure de cette proposition de loi appelait à « Renforcer les moyens humains, techniques et financiers de l’Arcom afin de lui permettre d’assurer pleinement ses missions de supervision des plateformes numérique dans le cadre du DSA, en particulier en matière de protection des mineurs, de suivi du respect des obligations des plateformes, et de soutien à la production de données et de travaux de recherche relatifs aux risques systémiques inhérents à ces plateformes » (Recommandation n°5 du rapport).

Nous souhaitons donc concrétiser cette recommandation par l'établissement d'un rapport établissant précisément les besoins humains et financiers de l'Arcom pour mener ses différentes missions à bien, et ainsi, alors que nous sommes toujours en pleine période d'examen budgétaire du budget 2026, de proposer des amendements de crédits pour y répondre.

Voir le PDF
Non renseignée Date inconnue

Cet amendement vise à interpeller le gouvernement sur les moyens accordés à un acteur incontournable de la formation continue des enseignants et des membres de la communauté éducative. Dans un contexte de forte demande de formations de la part des personnels avec une problématique récurrente de sous-utilisation des crédits prévus pour cela, le Réseau Canopé doit pouvoir continuer à développer son offre de formations.

Voir le PDF
Non renseignée Date inconnue

Cet amendement d’appel vise à interpeller le gouvernement sur sa stratégie de prévention et d’apprentissage du numérique au collège. Alors même que nous débattons des effets nocifs du numérique et des réseaux sociaux, il est surtout important qu’une éducation au numérique soit renforcée pour sensibiliser les jeunes élèves à la matière. La suppression de l’heure du cours de technologie en classe de 6ème est à rebours d’une politique publique du numérique, et nous incitons le gouvernement à réévaluer sa position sur le sujet. 

Voir le PDF
Non renseignée Date inconnue

Cet amendement d’appel vise à interpeller le gouvernement sur les moyens accordés aux professeurs documentalistes dans les établissements scolaires. Les politiques éducatives du numérique doivent être suivies de moyens suffisants pour garantir aux personnels éducatifs de pouvoir effectuer leur mission correctement. La mission des professeurs documentalistes de développement des compétences de l’accès réfléchi et autonome à l’information s’inscrit dans ce cadre. 

Voir le PDF
Non renseignée Date inconnue

En encadrant par voie réglementaire le métier d’agent de joueurs esportifs, cet amendement répond à l'ambition de cette proposition de loi d'accompagner - et donc de protéger - les mineurs dans leurs usages numériques lorsqu'ils s'inscrivent dans une pratique esportive.

Le développement rapide de l’esport s’est accompagné de l’émergence d’un marché des transferts et de la représentation des joueurs professionnels comparable à celui du sport traditionnel. Pourtant, la profession d’agent de joueur esportif n’est aujourd’hui encadrée par aucun dispositif juridique, laissant place à des pratiques hétérogènes et parfois abusives.

Cet amendement vise à encadrer l’activité d’agent de joueur professionnel d’esport en subordonnant son exercice à l’obtention d’une licence délivrée par un organisme agréé. Ce dispositif permettra de garantir la compétence et la probité des agents, de protéger les joueurs et les clubs, d’assurer la transparence des relations contractuelles, et de prévenir les conflits d’intérêts.

Voir le PDF
Non renseignée Date inconnue

Par cet amendement du groupe LFI, nous souhaitons questionner les moyens humains et financiers que mettent en place les plateformes numériques pour procéder au retrait des contenus signalés notamment comme dangereux et/ou illicites.

Alors que l'essor de l'intelligence artificielle semble se confirmer dans de nombreux domaines de la vie, on assiste depuis plusieurs années à l'annonce par les différentes plateformes numériques de plan de licenciements massifs de modérateurs humains des contenus signalés (suppression de 300 postes aux Pays-Bas par TikTok en septembre 2024, suppression de 2 000 postes en Espagne travaillant pour Meta en mai 2025...) pour les remplacer par des outils d'intelligence artificielle, réputés plus efficaces, mais surtout représentant un coût inférieur. Or, il est démontré que l’IA détecte encore mal une partie du contenu indésirable, notamment les abus et la cruauté, ce qui expose les utilisateurs les plus vulnérables, comme les personnes mineures à des contenus toujours plus dangereux, alors même que la modération actuelle n'est pas satisfaisante.

Par conséquent, il est indispensable, afin de rendre effectives les différentes obligations existantes, que les plateformes numériques se dotent de moyens humains suffisants pour traiter les signalements. Or, ces effectifs sont aujourd'hui insuffisants : à titre d'illustration, concernant la modération en France, une représentante de TikTok, qui s’exprimait lors d’une audition à l’Assemblée nationale le 2 juillet dernier, estimait à 509 le nombre de modérateurs francophones chargés de couvrir l’Europe – ce qui semble dérisoire par rapport aux nombre de contenus potentiellement dangereux et/ou illicites à modérer. Si la question du recrutement de modérateurs humains est indispensable, la question de leurs conditions de travail et de rémunération doit également être prise en compte pour assurer la formation d'un personnel qualifié et épanoui au travail - les travailleurs étant exposés à un risque particulier de santé mentale en raison de la dangerosité des contenus visionnés. Or, la presse se fait régulièrement l’écho de conditions de travail particulièrement difficiles (sous-traitance du travail, rémunération faible, stress post-traumatiques en raison de l’absence d’accompagnement des modérateur•rices humains...), ce que confirme également les conclusions de la commission d'enquête qui soulignent qu’ « Au-delà de la formation, les conditions de travail des modérateurs doivent faire l’objet d’une attention particulière », sans proposer néanmoins de mesures coercitives pour les améliorer concrètement.

Nous proposons donc d'approfondir cette réflexion en établissant un rapport précisant comment avoir recours à de la modération humaine des contenus, de l'opportunité de créer une obligation légale de modération humaine et de réfléchir aux différentes modalités de sa mise en oeuvre concrète afin d'assurer de façon effective la protection des utilisateurs et notamment des mineurs.

Voir le PDF
Non renseignée Date inconnue

La protection des mineurs relève de l’ordre public et de l’intérêt supérieur de l’enfant. Elle ne saurait être subordonnée à des interprétations restrictives. Cet amendement affirme clairement la primauté de ces principes.

Voir le PDF
Non renseignée Date inconnue

La banalisation culturelle de l’usage du smartphone et des réseaux sociaux chez les très jeunes contribue à normaliser des pratiques dont les effets délétères sont désormais établis. Sans porter atteinte à la liberté de création, cet amendement vise à responsabiliser les producteurs et à informer le public, dans une logique comparable à celle existant pour l’alcool, le tabac ou la violence.

Voir le PDF
Non renseignée Date inconnue

L’équipement précoce des enfants en smartphones est largement encouragé par des offres commerciales ciblées. Cet amendement vise à mettre fin à ces pratiques afin de protéger les mineurs et de responsabiliser les acteurs économiques. Il s’inscrit dans une logique de prévention et de protection de l’enfance.

Voir le PDF
Non renseignée Date inconnue

Les chefs d’établissement et les enseignants hésitent parfois à appliquer strictement les interdictions par crainte de contentieux. Cet amendement vise à sécuriser juridiquement l’institution scolaire afin de garantir l’effectivité des règles et de soutenir l’autorité éducative.

Voir le PDF
Non renseignée Date inconnue

Le présent amendement a pour objet de renforcer la sensibilisation des élèves et de leurs familles aux usages responsables du numérique et aux risques associés.

Si la formation à l’utilisation des outils et ressources numériques est déjà dispensée dans les établissements scolaires, il apparaît nécessaire d’élargir explicitement cette démarche aux représentants légaux des élèves, afin de favoriser une coéducation entre l’école et la famille.

L’amendement prévoit que chaque établissement organise deux sessions annuelles de sensibilisation aux risques et aux usages responsables du numérique, auxquelles la présence des parents est obligatoire. Cette disposition garantit que les familles soient informées et impliquées dans l’accompagnement de leurs enfants, notamment en matière de protection de la vie privée, de respect de la propriété intellectuelle et de prévention des usages abusifs ou dangereux d’internet et des réseaux sociaux.

 

Voir le PDF
Non renseignée Date inconnue

Le présent amendement propose de compléter les mesures retenues par le Gouvernement pour

lutter contre les effets délétères des réseaux sociaux sur les mineurs en étendant le délit d’abus

de faiblesse aux pratiques des plateformes numériques.

1Le texte proposé multiplie les dispositifs administratifs, techniques et comportementaux pesant

sur les plateformes, les familles et les établissements scolaires, sans s’attaquer au cœur du

problème : les mécanismes d’emprise psychologique et de dépendance intentionnellement mis

en œuvre par certaines plateformes numériques.

Or, le droit pénal français dispose déjà d’un outil éprouvé pour appréhender ces situations : le

délit d’abus frauduleux de l’état d’ignorance ou de faiblesse, prévu à l’article 223-15-3 du

Code pénal.

Les travaux de la commission d’enquête parlementaire sur les effets psychologiques de TikTok

sur les mineurs ont démontré que certaines pratiques algorithmiques – notamment les

mécanismes de recommandation, de captation de l’attention et de diffusion répétée de contenus

anxiogènes, violents ou sexualisés – peuvent, dans des cas caractérisés, maintenir des mineurs

dans un état de dépendance psychique ou émotionnelle manifeste.

Ces mécanismes ne relèvent pas d’un simple usage excessif ou d’un défaut de régulation

administrative, mais d’une exploitation délibérée de vulnérabilités cognitives, produisant des

effets comparables.

En étendant explicitement le champ d’application de l’article 223-15-3 aux pratiques des

plateformes numériques, le présent amendement permet de sanctionner les atteintes les plus

graves, de manière ciblée, proportionnée et individualisée. Cet amendement vise donc à

protéger réellement et efficacement les mineurs des risques auxquels les expose l’utilisation

des réseaux sociaux.

Voir le PDF
Non renseignée Date inconnue

En 2026, la France compte 50,7 millions de comptes français sur les réseaux sociaux, ce qui représente 78,22 % de la population. Ce chiffre considérable, en hausse chaque année, est un lanceur d’alerte sur la nécessité de sécuriser l’espace numérique afin de garantir un environnement sain en y proposant la rigueur des lois et les règles de civilité qui régissent notre espace public. 


Internet est un espace vaste qui propose une infinité d’opportunités pour les utilisateurs. Capable de rapprocher les internautes, lieu de partage entre amis, familles, Français, Européens mais aussi étrangers de tous les pays, la toile semble être un terrain où les différentes libertés, qu’elles soient de s’exprimer ou de s’informer, sont au centre des objectifs. Ces libertés fondamentales sont essentielles dans un monde plus connecté, toujours marqué par des tensions entre États. 

Cependant, Internet est vu aujourd’hui comme un espace totalement décomplexé, où les mauvaises intentions prennent le dessus sur les objectifs principaux des réseaux sociaux. Selon une étude de l’ARCOM (l’Autorité de régulation de la communication audiovisuelle et numérique), 83% des adolescents se disent régulièrement exposés à des risques sur les réseaux sociaux. Quand on sait que 4 jeunes sur 5 âgés de 11 à 17 ans possèdent un accès quotidien à au moins une grande plateforme en ligne, la nécessité de contrôler et de limiter leur accès semble primordiale.

Récemment, le suicide de la jeune Camélia, 17 ans, survenu le 13 janvier 2026, évoquait des faits de harcèlement à la fois scolaires et sur les réseaux sociaux, qui se poursuivaient une fois rentrée à son domicile.

Aujourd’hui, il n’est plus possible de vivre dans un monde où, derrière des pseudonymes, souvent anonymes, nos enfants sont confrontés à la haine et au cyberharcèlement qui ne peuvent être combattus faute de moyens. La situation de Camélia n’est pas un cas isolé : 18 % des 6-18 ans sont victimes de cyberharcèlement.  

Rappelons enfin le suicide de Lindsay en 2023, harcelée à la fois au sein de son établissement scolaire et en ligne. Sa mère dénonçait les profits que les réseaux sociaux tirent des propos haineux.

La toxicité des discours haineux est devenue en 2026 une « norme » : misogynie, racisme, antisémitisme, islamophobie ; les LGBTphobies sont omniprésentes. La dérive que constitue cette haine publique se doit de se voir combattre ; toutefois, la France doit se doter d’outils compétents et de moyens nécessaires afin de mettre fin à ce fléau. 

Même si les adresses IP sont un moyen efficace de retrouver les personnes « anonymes », la grande majorité des internautes, générant un sentiment de peur pour les autres, se croit non identifiable. 

Les mesures qui doivent être mises en place n’ont pas vocation à contraindre l’espace numérique mais à le rendre sain, civilisé comme l’espace public. L’enjeu ici n’est pas de créer de nouvelles règles propres au cyberspace, mais il faut transposer les règles de notre société au monde numérique. Autrement dit, ce qui est illégal dans le monde physique doit être reconnu comme illégal sur Internet.

Cet amendement inspiré des travaux de Paul Midy vise à instaurer le pseudonymat sur la toile numérique. Il ne sera pas obligatoire d’inscrire ses données personnelles à l’ouverture d’un compte (nom/prénom). Cependant, dans le cas où les forces de police souhaiteraient interpeller un individu, ce dernier devra décliner son identité. 

La proposition consiste à rattacher obligatoirement chaque compte en ligne à une identité réelle (physique ou morale), sans pour autant remettre en cause le droit au pseudonymat ou la possibilité de détenir plusieurs comptes. Dans ce schéma, les plateformes n'ont aucun accès aux données d'identité : elles ne conservent qu'une clé de hachage chiffrée, illisible pour elles.

Seule l'autorité publique est habilitée à déchiffrer ce code pour lever l'anonymat, et ce, uniquement dans un cadre légal strict, en cas d'infraction avérée. Ce mécanisme, comparable au fichier des immatriculations de véhicules, garantit la protection des données personnelles tout en permettant la sanction des délinquants. 

Après une première étape incitative, nous proposons de passer à une logique d'obligation : la détention d'un compte devra désormais être liée à une identité certifiée. Pour préserver l'accès à l'information sans risque pour l'ordre public, un statut de "compte à portée limitée" sera créé pour les utilisateurs non certifiés. Concrètement, ces derniers pourront tout lire, mais ne pourront pas être entendus par le grand public. Leurs partages seront techniquement confinés à leur liste d'amis. Cette réforme s'appuie sur la maturité des outils actuels, notamment le programme France Identité, et répond à la Commission européenne sur la protection des enfants sur Internet ainsi qu'à la commission d’enquête parlementaire relative aux effets psychologiques de TikTok.

Voir le PDF
Non renseignée Date inconnue

Le présent amendement vise à rendre effective et difficilement contournable l’activation du contrôle parental pour les mineurs de moins de quinze ans, en s’appuyant sur un point d’entrée simple : la souscription d’un forfait mobile généralement effectuée par les parents.

Il crée, d’une part, une obligation pour les opérateurs de fournir, sans surcoût, une carte SIM ou eSIM comportant un profil technique “mineur”, non nominatif, assorti de la remise d’un code secret au titulaire de l’autorité parentale.

Il complète, d’autre part, le dispositif existant de l’article L. 34-9-3 du code des postes et des communications électroniques relatif au contrôle parental des terminaux, afin que la détection de ce profil déclenche automatiquement l’activation du contrôle parental et que celui-ci demeure actif même en cas de retrait de la carte SIM ou de l’eSIM. La désactivation n’est possible qu’au moyen du code parental ou, à défaut, par une réinitialisation complète de l’appareil, ce qui limite les contournements tout en préservant la possibilité de revente et de réutilisation des terminaux.

Le dispositif est renvoyé à un décret en Conseil d’État pris après avis des autorités compétentes, afin de garantir la proportionnalité, la sécurité et la conformité au droit de l’Union européenne. Il ne se substitue pas aux obligations pesant sur les plateformes en ligne en matière de protection des mineurs et s’y ajoute comme une mesure complémentaire de sécurité “par défaut”.

Voir le PDF
Non renseignée Date inconnue

Cet amendement du groupe Écologiste et Social vise à compléter les actions de prévention à destination des mineurs sur leurs usages des écrans, en intégrant une prévention et une détection spécifique des usages pathologiques des jeux vidéos.

Le « gaming disorder » (trouble du jeu), est reconnu par l’OMS depuis 2018. L'organisation l’a intégré dans la classification mondiale des maladies (CIM). Le trouble du jeu vidéo est un comportement de jeu persistant ou récurrent ; il se manifeste fortement chez les enfants puisqu’un élève sur huit aurait un usage problématique des jeux vidéos selon l'Observatoire français des drogues et des tendances addictives. 

Cette prévention aux usages des jeux vidéos a pour objectif d’accompagner les mineurs vers une pratique raisonnée, éclairée et responsable des outils numériques. Elle peut notamment comprendre des recommandations relatives à la gestion du temps d’écran, à la protection de la vie privée et des données personnelles, à la compréhension des mécanismes de captation de l’attention, à la prévention des risques de dépendance, ainsi qu’à l’adoption de comportements appropriés dans l’environnement numérique.

Voir le PDF
Non renseignée Date inconnue

En renforçant les exigences d’honorabilité et de sécurité pour les encadrants et exploitants d’établissements liés à l’esport, cet amendement répond à l'ambition de cette proposition de loi de protéger les mineurs en ligne.

L’article 56 de la loi n° 2022‑296 du 2 mars 2022 visant à démocratiser le sport en France a inséré un article 102‑1 au sein de la loi n° 2016‑1321 du 7 octobre 2016 pour une République numérique qui précise les conditions d’honorabilité devant être satisfaites pour exercer les fonctions d’enseignement, d’animation ou d’encadrement d’une activité de jeux vidéo ou entraîner ses pratiquants. 

Toutefois, cette obligation demeure à ce jour inappliquée faute de décret précisant ses modalités de mise en œuvre. Cet amendement vise à apporter des précisions quant à ces exigences d’honorabilité dans la perspective de la publication effective dudit décret. 

Voir le PDF
Non renseignée Date inconnue

En créant un cadre d’accompagnement adapté pour les talents esportifs reconnus tout au long de leur carrière - à l’école comme dans leur voie professionnelle, cet amendement répond à l'ambition d'accompagner - et donc de protéger - les mineurs dans leurs usages numériques lorsqu'ils s'inscrivent dans une pratique esportive.

L’essor du jeu vidéo compétitif a fait émerger une nouvelle génération de talents, dont la carrière débute souvent très tôt et s’inscrit dans un environnement exigeant. Faute de cadre structuré, de nombreux jeunes s’engagent aujourd’hui dans des parcours esportifs sans accompagnement scolaire ou professionnel adapté, avec des risques de décrochage, de déscolarisation et de précarité à la fin de leur carrière. Un encadrement spécifique est donc nécessaire pour leur permettre de concilier formation, pratique compétitive et construction d’un projet de vie durable.

Cet amendement vise d’une part à consacrer l’existence de centres de formation dédiés afin que les talents de l’esport puissent bénéficier d’un accompagnement adapté, et d’autre part à instaurer une liste officielle de joueurs esportifs de haut niveau, leur ouvrant l’accès aux dispositifs de soutien prévus pour les sportifs de haut niveau (aménagements scolaires, accompagnement médical, double projet…).

Voir le PDF
Non renseignée Date inconnue

Cet amendement du groupe Écologiste et Social vise à renforcer la protection des enfants face à leur exposition aux écrans dès le plus jeune âge, en interdisant la présence et l’usage de tout écran dans les lieux qui les accueillent : maternités, maisons de naissance, établissements d’accueil des enfants de moins de six ans, écoles maternelles.

Jusqu’à l’été dernier, il n’existait pas d’interdiction d’exposition des jeunes enfants aux écrans les lieux les accueillants. Un premier pas a été fait avec l’arrêté du 2 juillet 2025, modifiant la charte nationale pour l’accueil du jeune enfant. Celui-ci interdit désormais l’exposition des enfants de moins de trois ans aux écrans, notamment dans les crèches, haltes-garderies et lieux d’accueil proposés par les assistants maternels.

Pour autant, un nombre important d’enfants risques d’être encore exposés à des écrans avant un âge recommandé, dans les maternités ou les écoles maternelles. C’est pourquoi cet amendement vise à étendre cette interdiction à ces lieux.

Si l’arrêté du 2 juillet 2025 constitue une avancée bienvenue, il demeure néanmoins insuffisant. En effet, bien qu’il interdise l’exposition des enfants aux écrans, les lieux concernés restent largement équipés de dispositifs numériques.

C’est pourquoi, le présent amendement vise à exclure, à l’horizon 2028, l’ensemble des outils permettant de se connecter aux réseaux sociaux dans les espaces accueillants les enfants, au sein des maternités, des maisons de naissance, des établissements d’accueil des enfants de moins de six ans, des écoles maternelles et des écoles élémentaires.

À titre de rappel, les enfants âgés de 3 à 10 ans passent en moyenne 728 heures par an devant un écran, tandis qu’un tiers des enfants de 0 à 3 ans prend ses repas face à un écran. Ces chiffres soulignent l’urgence d’une action publique ambitieuse afin de préserver le développement, la santé et le bien-être des enfants. Jusqu'à 65% des enfants de 6 à 10 ans seraient inscrits sur les réseaux sociaux. 

Voir le PDF
Non renseignée Date inconnue

Cet amendement du groupe Écologiste et Social vise à renforcer la protection des enfants face à leur exposition aux écrans dès le plus jeune âge, en interdisant la présence et l’usage de tout écran dans les lieux qui les accueillent : maternités, maisons de naissance, établissements d’accueil des enfants de moins de six ans, écoles maternelles.

Jusqu’à l’été dernier, il n’existait pas d’interdiction d’exposition des jeunes enfants aux écrans les lieux les accueillants. Un premier pas a été fait avec l’arrêté du 2 juillet 2025, modifiant la charte nationale pour l’accueil du jeune enfant. Celui-ci interdit désormais l’exposition des enfants de moins de trois ans aux écrans, notamment dans les crèches, haltes-garderies et lieux d’accueil proposés par les assistants maternels.

Pour autant, un nombre important d’enfants risques d’être encore exposés à des écrans avant un âge recommandé, dans les maternités ou les écoles maternelles. C’est pourquoi cet amendement vise à étendre cette interdiction à ces lieux.

Si l’arrêté du 2 juillet 2025 constitue une avancée bienvenue, il demeure néanmoins insuffisant. En effet, bien qu’il interdise l’exposition des enfants aux écrans, les lieux concernés restent largement équipés de dispositifs numériques.

C’est pourquoi, le présent amendement vise à exclure, à l’horizon 2028, l’ensemble des écrans des établissements accueillant de jeunes enfants : maternités, maisons de naissance, établissements d’accueil des enfants de moins de six ans, écoles maternelles et écoles élémentaires.

À titre de rappel, les enfants âgés de 3 à 10 ans passent en moyenne 728 heures par an devant un écran, tandis qu’un tiers des enfants de 0 à 3 ans prend ses repas face à un écran. Ces chiffres soulignent l’urgence d’une action publique ambitieuse afin de préserver le développement, la santé et le bien-être des enfants.

 

Sur la recevabilité de cet amendement au regard de l'article 45 : l'objet de cette proposition de loi est de protéger les mineurs de leur surexposition aux écrans et aux réseaux sociaux. 

Or, la surexposition aux écrans démarre dès le plus jeune âge. La prévenir tôt permettra également d'éviter l'habituation aux écrans. 

En outre, l'article 6 vise à prévenir l'usage des téléphones portables dans les lycées ; l'objet est à la fois de réguler l'accès aux réseaux sociaux, et de limiter la surexposition aux écrans dans des établissements scolaires et accueillant des mineurs. Cet article propose un travail analogue à l'article 6, dans d'autres établissements. 

Enfin, les écrans dans les écoles par exemple sont aussi des supports pour accéder aux réseaux sociaux. Sachant que 65% des enfants de 6 à 10 ans seraient inscrits sur les réseaux sociaux, mettre à leur disposition des outils numériques en classe, potentiellement connectés à ces réseaux sociaux, est un contre-sens par rapport à la volonté de réguler l'accès des mineurs aux réseaux sociaux. 

Ainsi, cet amendement ne méconnaît pas l'article 45 de la Constitution. 

Voir le PDF
Non renseignée Date inconnue

Cet amendement du groupe Écologiste et Social vise à compléter les actions de prévention à destination des mineurs, en intégrant une sensibilisation progressive aux risques ainsi qu’une éducation aux usages numériques, adaptée à l’âge des enfants.

Cette éducation aux usages a pour objectif d’accompagner les mineurs vers une pratique raisonnée, éclairée et responsable des outils numériques. Elle peut notamment comprendre des recommandations relatives à la gestion du temps d’écran, à la protection de la vie privée et des données personnelles, à la compréhension des mécanismes de captation de l’attention, à la prévention des risques de dépendance, ainsi qu’à l’adoption de comportements appropriés dans l’environnement numérique.

L’article précise que cette action de sensibilisation doit intervenir à un âge approprié, afin d’éviter toute exposition prématurée à des contenus ou notions inadaptés au développement des plus jeunes enfants. Ainsi, avant l’âge de 3 ans, voire de 6 ans, la priorité doit demeurer la prévention de l’exposition aux écrans ; ce n’est qu’ultérieurement qu’une éducation aux usages numériques trouve pleinement sa pertinence.

Cette approche graduée permet de tenir compte du niveau de maturité des enfants, tout en renforçant progressivement leur capacité à adopter des usages numériques équilibrés à mesure qu’ils grandissent.