Votes
Amendements
| Amendement | Vote / Lien | Décision | Résumé |
|---|---|---|---|
|
AMANR5L17PO59051B1142P0D1N000001
Dossier : 1
|
Voir le PDF |
Tombé
28/01/2026
|
Cet amendement du groupe Socialistes et apparentés entend imposer un strict respect des règles relatives aux usages de l'intelligence artificielle. Il s'agit plus précisément de s'assurer que la mise en oeuvre de ce texte ne conduise pas à porter atteinte à l’article 5, paragraphe 1, point f), du règlement sur l’IA. Cette disposition a fait l'objet d'une interprétation par la Commission européenne qui estime que "l’utilisation de caméras par un supermarché ou une banque pour détecter les clients suspects, par exemple pour conclure que quelqu’un est sur le point de commettre un vol, n’est pas interdite par l’article 5, paragraphe 1, point f), du règlement sur l’IA, Tel est le sens de cet amendement. |
|
AMANR5L17PO59051B1142P0D1N000010
Dossier : 10
|
Voir le PDF |
Rejeté
28/01/2026
|
Par cet amendement, les député.es du groupe LFI souhaitent interdire le recours à la vidéosurveillance algorithmique à l'ensemble des personnes privées. La fable de la protection par la surveillance ne peut plus continuer. Le rapport relatif à la gestion de la sécurité pendant les JOP de Paris en 2024 a été très clair. La vidéosurveillance algorithmique n'a été utile qu'à la marge. Or, l'intégration des algorithmes fait peser un risque majeur sur les droits et libertés. D'une part, ces algorithmes sont de véritables "boîtes noires" entièrement contrôlées par les entreprises de la technopolice. D'autre part, ils ne sont absolument pas fiables quant aux comportements "signalés", les "signaux faibles" qui sont repérés sont un ensemble de comportements tous plus anodins les uns que les autres : "assis, debout, courir", etc. Enfin ces algorithmes posent un véritable enjeu de libertés fondamentales. Ils facilitent grandement la capacité de suivre les déplacements d'un individu, limitant ainsi l'ensemble des libertés qui y sont attachées, dont le respect de la vie privée et la liberté d'aller et venir sans entrave en premier lieu. Pour toutes ces raisons, ouvrir le champ à la vidéosurveillance algorithmique à l'ensemble des commerces est une erreur. Nous ne pouvons accepter d'entrer dans un mode de surveillance généralisée. Pour ce faire, il nous faut des garanties strictes. En effet, Disclose en 2020 et la Quadrature du Net en 2023 alertaient sur l'usage illégal de la vidéosurveillance tant par les acteurs publics que par les acteurs privés. Il est nécessaire d'avoir un contrôle accru des logiciels utilisés. La CNIL a rendu un avis interdisant les caméras algorithmiques dans les commerces, considérant leur usage disproportionné. Nous devons assurer ainsi que la CNIL puisse contrôler a priori les logiciels et dispositifs utilisés par les commerces avant qu'ils ne puissent l'utiliser. |
|
AMANR5L17PO59051B1142P0D1N000012
Dossier : 12
|
Voir le PDF |
Rejeté
28/01/2026
|
Par cet amendement, les député.es du groupe LFI souhaitent mettre fin à une situation incompréhensible. En effet, il est aujourd'hui permis aux commerçants et magasins, et à toute personne privée gérant un établissement accueillant du public, de conserver des images pendant une durée d'un mois. Bien souvent les caméras ont un intérêt pour les délits et les crimes en flagrance et à ce titre, un délai qui est donc extrêmement court. De plus, les crimes ou délits les plus graves qui se déroulent dans un magasin sont souvent immédiatement constatés et font l'objet d'un signalement aux autorités compétentes. Par conséquent, autoriser des personnes privées à disposer d'une grande quantité d'images d'individus pendant près d'un mois n'est pas justifié. Nous considérons dans notre programme L'Avenir en commun qu'il est nécessaire d'imposer de la sobriété dans la collecte de nos données personnelles. |
|
AMANR5L17PO59051B1142P0D1N000013
Dossier : 13
|
Voir le PDF |
Rejeté
28/01/2026
|
Par cet amendement de repli, les député.es du groupe LFI souhaitent s'assurer de la bonne information du public sur l'usage de caméras, et de caméras augmentées. Trop souvent dans les commerces et les magasins, les caméras sont dissimulées. Si le commerce fait le choix de recourir à de tels dispositifs, ceux-ci devraient être visibles, permettant au public de savoir qu'il est filmé. Cette mesure est une mesure a minima, qui ne garantit aucunement la liberté des individus contre les abus de la vidéosurveillance, ni contre le développement tout azimut de la technopolice. Cependant, elle doit permettre aux personnes concernées de connaître l'étendue de cette surveillance. Les commerces n'ont en effet rien à cacher, pourquoi ne pas indiquer clairement qu'ils surveillent leurs clients ? Nous rappelons notre opposition ferme à ce texte. |
|
AMANR5L17PO59051B1142P0D1N000014
Dossier : 14
|
Voir le PDF |
Rejeté
28/01/2026
|
Par cet amendement les député.es du groupe LFI souhaitent supprimer le droit pour les magasins ou commerçants de filmer l'espace public. De manière générale, nous nous opposons à l'augmentation du recours à la vidéosurveillance. Elle installe une fausse idée de protection, elle ne met personne à l'abri d'un délit ou d'un crime et elle porte atteinte aux droits et libertés fondamentaux. |
|
AMANR5L17PO59051B1142P0D1N000015
Dossier : 15
|
Voir le PDF |
Tombé
28/01/2026
|
Cet amendement vise à supprimer l’alinéa 4 du présent article. L’article 23 du RGPD prévoit la possibilité pour l’Union européenne, comme pour les Etats membres de limiter la portée des droits prévus par le règlement dans ses articles 11 à 22, au nombre desquels figurent les droits d’accès, de rectification, d’opposition, d’effacement ou de limitation du traitement des données personnelles. Toutefois, l’article 23 rappelle également le caractère législatif que doivent présenter de telles mesures de limitation. En l’espèce, l’adoption de cet alinéa équivaudrait pour le législateur à se décharger de cette fonction essentielle reconnue tant par le droit de l’Union que par la Constitution et pourrait s’apparenter à une situation d’incompétence négative du législateur. |
|
AMANR5L17PO59051B1142P0D1N000016
Dossier : 16
|
Voir le PDF |
Rejeté
28/01/2026
|
Cet amendement vise à la protection des données récoltées par les technologies d'analyse automatique. En effet, le rapport du comité d'évaluation sur l'expérimentation des traitements algorithmiques d'images à la suite des jeux olympiques et paralympiques de 2024 met en lumière l'importance des enjeux liés à la cybersécurité. |
|
AMANR5L17PO59051B1142P0D1N000017
Dossier : 17
|
Voir le PDF |
Tombé
28/01/2026
|
Selon une étude menée par le collectif apolitique "Ras le vol", qui soutient et défend les commerçants et artisans dans la lutte contre le vol, plus de 8 commerçants sur 10 ont été victimes de vols (82%) en 2024. Ces chiffres sont alarmants et doivent être pris au sérieux. Considérant que l'analyse automatique des images captées semble proportionnée face aux risques d’agression ou de vol visant les magasins de vente particulièrement exposés, il n'apparait pas nécessaire de le préciser dans l'article de la présente proposition de loi.
|
|
AMANR5L17PO59051B1142P0D1N000018
Dossier : 18
|
Voir le PDF |
Rejeté
28/01/2026
|
Cet amendement vise à intégrer les agents de sécurité privée dans le continuum de sécurité au sein des ERP et leur permettre de consulter, sous supervision publique, les images de vidéoprotection. Le rapport du comité d'évaluation sur l'expérimentation des traitements algorithmiques d'images publié à la suite des jeux olympiques et paralympiques de 2024 met notamment en lumière l'apport limité des traitements algorithmiques sur le plan opérationnel dû au nombre exceptionnellement élevé d’agents déployés sur les différents sites pendant la période olympique : "cette présence humaine garantissait à elle seule des capacités de détection hors normes". A ce titre, nous pouvons conclure d'un manque d'effectifs en matière de sécurité au sein des ERP. Ce continuum viendrait s'ajouter au déploiement des systèmes de vidéoprotection et permettrait une meilleure dissuasion. |
|
AMANR5L17PO59051B1142P0D1N000002
Dossier : 2
|
Voir le PDF |
Tombé
28/01/2026
|
Cet amendement du groupe Socialistes et apparentés entend préciser les obligations pesant sur les entreprises utilisant ce type de technologie. Dans le respect des exigences de la loi de 1978 précisées par la CNIL dans plusieurs de ses publications, il est essentiel que la loi explicite les moyens de l'information des clients quant aux technologies employées. La CNIL indique ainsi : "Si un magasin utilise des caméras augmentées sur ses caisses automatiques, elle doit vous en informer de manière claire et visible. En principe, cette information apparaît sur des panneaux d’information dans le magasin et sur l’écran de la caisse automatique. Certaines informations, comme le nom de l’enseigne, les objectifs du dispositif (détecter les erreurs ou tentatives de vol) ainsi que vos droits, doivent figurer directement sur ces supports. Vous devez également pouvoir accéder à des informations supplémentaires, par exemple par un lien ou en scannant un QR code." A cet égard, les seules informations écrites ne suffisent pas : des messages audio et des pictogrammes apparaissent nécessaires.
|
|
AMANR5L17PO59051B1142P0D1N000020
Dossier : 20
|
Voir le PDF |
Rejeté
28/01/2026
|
Cet amendement du groupe Écologiste et Social vise à supprimer l’article unique de la proposition de loi qui entend autoriser dans les magasins de vente et les centres commerciaux le recours aux technologies d’analyse automatique des images, c’est-à-dire au traitement algorithmique des données issues de dispositifs de vidéosurveillance privée. Cette proposition de loi s’inscrit dans une logique de marchandisation croissante de la sécurité au bénéfice d’un nombre restreint de grands acteurs économiques, qu’il s’agisse des enseignes de la distribution ou des entreprises de sécurité privée développant et commercialisant ces technologies. Le groupe Écologiste et Social dénonce la poursuite des dérives amorcées par la loi relative à l’organisation des Jeux Olympiques et Paralympiques, laquelle a introduit à titre « expérimental » la vidéosurveillance algorithmique. La généralisation de ces technologies participe à la construction d’une société de surveillance au détriment du droit au respect de la vie privée et de la protection des données personnelles. À cet égard, l’alinéa 4 de l’article unique prévoit de restreindre l’exercice des droits d’accès, de rectification, d’opposition, d’effacement et de limitation des personnes concernées, alors même que leurs images seraient analysées par des logiciels développés par des entreprises privées au bénéfice d’acteurs économiques, également privés. Une telle restriction est particulièrement préoccupante. Le groupe Écologiste et Social est également s'inquiète également des conditions d’entraînement de ces systèmes algorithmiques qui sont susceptibles de produire des biais discriminatoires. Enfin, le Conseil constitutionnel a expressément relevé, dans sa décision n° 2023‑850 DC du 17 mai 2023, que les dispositifs de vidéosurveillance algorithmique ne pouvaient être autorisés que pour des situations présentant des risques particuliers d’atteintes graves à l’ordre public et a exclu leur mise en œuvre en cas de seuls risques d’atteintes aux biens. Cette proposition de loi doit être rejetée. |
|
AMANR5L17PO59051B1142P0D1N000021
Dossier : 21
|
Voir le PDF |
Adopté
28/01/2026
|
La transparence est un pilier essentiel de la confiance dans l’utilisation des technologies de vidéoprotection, surtout lorsqu’elles intègrent des traitements algorithmiques. Cet amendement vise à renforcer l’information du public, en garantissant que toute personne entrant dans un lieu équipé de tels dispositifs soit clairement et préalablement avertiede leur existence. Cette obligation s’inscrit dans la continuité des principes du RGPD et de la loi Informatique et Libertés, qui exigent une information loyale et accessible des citoyens sur l’usage de leurs données. L’enjeu est double : protéger les libertés individuelles en évitant toute opacité, tout en sécurisant juridiquement le déploiement de ces outils. Une étude de la CNIL en 2024 révèle que 68 % des Français estiment que le manque d’information sur l’utilisation des caméras et des algorithmes constitue un frein majeur à leur acceptabilité. En imposant une information systématique, cet amendement répond à cette préoccupation, tout en limitant les risques de contentieux ou de rejet par les usagers. Concrètement, cette mesure permettra d’éviter les dérives et de renforcer la légitimité des dispositifs de vidéoprotection. Elle s’aligne sur les bonnes pratiques européennes, où des pays comme l’Allemagne ou la Suède ont généralisé l’affichage clair des zones sous surveillance algorithmique, réduisant ainsi les plaintes pour atteinte à la vie privée. En France, cette transparence est d’autant plus nécessaire que les traitements algorithmiques, bien qu’encadrés, restent perçus comme intrusifs par une partie de la population. Enfin, cet amendement complète utilement les dispositions existantes en précisant le fondement juridique (article L. 252-1 du code de la sécurité intérieure) et en rappelant que l’information doit être diffusée par tout moyen approprié(panneaux, affichage numérique, mentions dans les conditions d’accès, etc.). Cela offre une flexibilité aux gestionnaires de lieux tout en assurant une couverture maximale des usagers. |
|
AMANR5L17PO59051B1142P0D1N000022
Dossier : 22
|
Voir le PDF |
Adopté
28/01/2026
|
Le présent amendement vise à encadrer, à titre expérimental et jusqu’au 31 décembre 2031, l’utilisation de traitements algorithmiques sur les images issues des systèmes de vidéoprotection dans les lieux et établissements ouverts au public particulièrement exposés aux risques de vol. Cette mesure s’inscrit dans une logique de prévention et de réactivité face à la recrudescence des actes de malveillance, tout en garantissant le respect des droits fondamentaux et des cadres juridiques existants. La recrudescence des vols dans les lieux ouverts au public impose une réponse innovante et proportionnée. Avec plus de 2 milliards d’euros de préjudice annuel pour les commerçants et une hausse de 12 % des vols en magasin depuis 2022(source : ministère de l’Intérieur, 2025), les systèmes de vidéoprotection actuels, souvent limités à un usage a posteriori, ne suffisent plus à endiguer ce phénomène. Cet amendement propose d’autoriser, à titre expérimental jusqu’en 2031, l’utilisation de traitements algorithmiques en temps réel pour détecter des événements prédéfinis liés au risque de vol, dans les établissements les plus exposés. Cette mesure s’inscrit dans un cadre juridique strict : elle respecte le RGPD et la loi Informatique et Libertés, en excluant toute reconnaissance faciale ou collecte de données biométriques. Les traitements se limitent à des critères objectifs (mouvements suspects, présence prolongée dans des zones sensibles) et visent uniquement à alerter les forces de l’ordre ou les agents de sécurité pour une intervention ciblée. L’expérimentation permettra d’évaluer l’efficacité du dispositif, tout en garantissant un contrôle renforcé par la CNIL et une transparence totale envers le public. Des pays comme l’Allemagne ou les Pays-Bas ont déjà adopté des outils similaires, avec une réduction avérée de jusqu’à 30 % des vols dans les zones équipées (étude FRA, 2024). En France, cette approche offrirait un levier supplémentaire pour protéger les commerces et les usagers, sans sacrifier les libertés individuelles. Le caractère temporaire de la mesure permettra d’ajuster le dispositif en fonction des résultats concrets, tout en sécurisant juridiquement son déploiement. L’enjeu est double : renforcer la dissuasion grâce à une détection précoce des risques, et optimiser l’action des forces de l’ordre en concentrant leurs moyens sur les situations critiques. Cet amendement incarne ainsi une réponse pragmatique et équilibrée, alliant innovation technologique et respect des principes républicains. |
|
AMANR5L17PO59051B1142P0D1N000023
Dossier : 23
|
Voir le PDF |
Adopté
28/01/2026
|
La lutte contre les vols dans les lieux ouverts au public ne doit en aucun cas se faire au détriment des libertés fondamentales. Cet amendement du groupe DR renforce les garanties contre toute dérive technologique en interdisant explicitementl’utilisation de données biométriques, de reconnaissance faciale ou de rapprochements automatisés avec d’autres fichiers. Ces restrictions s’appuient sur les recommandations de la CNIL et du Contrôleur européen de la protection des données, qui soulignent que 72 % des Français rejettent l’idée d’une surveillance biométrique généralisée (sondage IFOP, 2025). Le dispositif se limite à un signalement d’attention, strictement circonscrit à la détection d’événements prédéfinis (mouvements suspects, présence anormale, etc.), sans aucune capacité à influencer des décisions individuelles ou à déclencher des poursuites automatiques. Cette approche évite les risques de fichage abusif ou de discrimination algorithmique, tout en préservant l’efficacité opérationnelle des forces de l’ordre, qui conservent le contrôle total sur l’interprétation des alertes et les suites à leur donner. Enfin, l’amendement rappelle que ces outils restent sous supervision humaine permanente, conformément aux principes de responsabilité et de transparence du RGPD. Cette précaution est essentielle pour maintenir la confiance des citoyens et écarter toute suspicion de surveillance de masse. En Allemagne, un dispositif similaire, strictement encadré, a permis de réduire les vols de 25 % dans les commerces équipés (étude FRA, 2024), sans générer de contentieux majeur. |
|
AMANR5L17PO59051B1142P0D1N000024
Dossier : 24
|
Voir le PDF |
Tombé
28/01/2026
|
L’efficacité des traitements algorithmiques en matière de vidéoprotection repose sur un cadre juridique rigoureux et des garanties techniques irréprochables. Cet amendement introduit un encadrement par décret, pris après avis de la CNIL, pour définir précisément les modalités d’autorisation, les événements prédéterminés à détecter, les lieux concernés, et les conditions d’habilitation des agents. Cette approche s’inspire des recommandations du Conseil d’État (2024), qui souligne que 80 % des contentieux liés aux algorithmes publics proviennent d’un manque de précision dans les textes réglementaires. Le décret fixera des exigences strictes pour éviter tout biais ou dérive : données d’apprentissage représentatives et sécurisées, traçabilité totale des signalements, contrôle humain permanent, et mécanismes d’interruption immédiate. Ces mesures répondent aux craintes exprimées par 65 % des Français (baromètre CNIL, 2025) concernant l’opacité des algorithmes. Une phase de test préalable, validée par un rapport indépendant, garantira que le dispositif fonctionne dans des conditions réelles, sans risque pour les libertés publiques. L’amendement s’aligne sur les standards européens, où des pays comme les Pays-Bas ont réduit les erreurs de détection de 40 % grâce à des protocoles similaires (étude FRA, 2024). En France, cette rigueur est indispensable pour concilier sécurité et confiance citoyenne, tout en évitant les écueils d’une surveillance automatisée non maîtrisée. |
|
AMANR5L17PO59051B1142P0D1N000025
Dossier : 25
|
Voir le PDF |
Adopté
28/01/2026
|
Cet amendement prévoit l'information explicite du public s'agissant de l'emploi de traitements algorithmiques dans les lieux accueillant du public. |
|
AMANR5L17PO59051B1142P0D1N000026
Dossier : 26
|
Voir le PDF |
Adopté
28/01/2026
|
Cet amendement reprend les dispositions de l'article 10 de la loi du 19 mai 2023 relative aux jeux Olympiques et Paralympiques pour exclure explicitement tout traitement de données biométriques et toute technique de reconnaissance faciale. L'amendement affirme également le principe de "primauté humaine", rappelé par le Conseil d'Etat dans son avis sur le projet de loi jeux Olympiques, selon lequel "à tout instant, le traitement ne fonctionne que sous la supervision des personnes qui le mettent en œuvre." |
|
AMANR5L17PO59051B1142P0D1N000027
Dossier : 27
|
Voir le PDF |
Adopté
28/01/2026
|
Cet amendement complète le dispositif pour encadrer plus étroitement le recours à la vidéoprotection algorithmique par les commerçants, sur le modèle de l'expérimentation prévue par l'article 10 de la loi du 19 mai 2023 relative aux jeux Olympiques et Paralympiques. En premier lieu, il prévoit que les modalités de recours au traitement algorithmique sont déterminées par décret, pris après avis de la Cnil. Ce décret doit notamment fixer les conditions d'habilitation et de formation des agents qui peuvent accéder aux signalements du traitement. L'amendement reprend la précision apportée lors des débats sur la prolongation de l'expérimentation, selon laquelle cette formation doit inclure des modules sur les enjeux liés aux libertés publiques et à l'éthique. En second lieu, il reprend les exigences techniques prévues par la loi du 19 mai 2023 ; il reviendra à chaque responsable de traitement de s'assurer du respect de ses exigences, sous le contrôle d'une autorité compétente. En troisième lieu, il précise la procédure d'autorisation de traitement : c'est le préfet qui autorisera la demande, et sa décision sera motivée et publiée. L'autorisation sera valable pour une durée de cinq ans. En quatrième lieu, il ajoute que le responsable du traitement tient un registre des suites apportées aux signalements, un suivi indispensable pour évaluer ensuite le succès de l'expérimentation. En cinquième lieu, il exclut formellement toute possibilité d'utiliser les images collectées par les logiciels comme données d'apprentissage. En sixième lieu, il prévoit les modalités de suivi de l'expérimentation, en rappelant le rôle fondamental joué par la Cnil et en instaurant un comité d'évaluation indépendant, sur le modèle de celui ayant évalué l'expérimentation pendant les jeux Olympiques et Paralympiques. |
|
AMANR5L17PO59051B1142P0D1N000028
Dossier : 28
|
Voir le PDF |
Adopté
28/01/2026
|
Cet amendement : - renonce à l'insertion au sein du code de la sécurité intérieure pour privilégier la forme expérimentale, pour une durée de cinq ans ; - écarte la finalité d'assurer la sécurité des personnes pour privilégier uniquement celle de prévenir le vol ; - précise que les traitements ne peuvent s'appliquer qu'en temps réel, excluant tout recours pour rechercher a posteriori des informations ; - rappelle que ces traitements doivent respecter le règlement général sur la protection des données (RGPD). |
|
AMANR5L17PO59051B1142P0D1N000029
Dossier : 29
|
Voir le PDF |
Rejeté
28/01/2026
|
Cet amendement vise à réintégrer, comme dans sa rédaction initiale, le sécurité des personnes dans le dispositif du présent article. En effet, il est difficilement défendable de n'inclure que la sécurité des biens dans un tel dispositif qui vise précisément à prévenir des risques qui pèsent sur les commerçants. |
|
AMANR5L17PO59051B1142P0D1N000003
Dossier : 3
|
Voir le PDF |
Tombé
28/01/2026
|
Cet amendement du groupe Socialistes et apparentés vise à imposer aux personnes ayant recours à cette technologie que garantir qu'elles n'auront pas recours à la reconnaissance faciale. Cette précision est d'autant plus nécessaire que certaines entreprises faisant le commerce de cette vidéosurveillance augmentée expliquent sur leur site internet que "Un vol sur deux est réalisé par des clients réguliers (connus du magasin). En identifiant ces malfaiteurs réguliers vous pouvez les interpeller et par conséquent, les dissuader de recommencer." Suivant cette logique, on imagine sans peine que l'étape suivante sera de proposer un complément technique de reconnaissance faciale. Or, cette technologie fait courir des risques d'atteintes aux droits fondamentaux. Tel est le sens de cet amendement. |
|
AMANR5L17PO59051B1142P0D1N000004
Dossier : 4
|
Voir le PDF |
Tombé
28/01/2026
|
Cet amendement du groupe Socialistes et apparentés entend poser la question de la réutilisation des images captées : La circulation des images issues de la vidéosurveillance est particulièrement problématique, que ces images soient piratées, revendue ou données. C'est sur la base de telles images que les entreprises entrainent leurs algorithmes : elles ont donc une valeur économique puisqu'elles sont essentielles à la constitution même des algorithmes. Aussi cet amendement prévoit-il que l'entreprise qui a recours à cette technologie doit garantir la non circulation de ces images. Tel est le sens de cet amendement. |
|
AMANR5L17PO59051B1142P0D1N000005
Dossier : 5
|
Voir le PDF |
Tombé
28/01/2026
|
Cet amendement du groupe Socialistes et apparentés entend rappeler l'importance du respect des droits humains dans le cadre de l'utilisation de technologies parfois conçues en partie à l'étranger. Dans l'esprit de la loi Potier relative au devoir de vigilance, il appartient aux entreprises qui ont recours à ces technologies de veiller à ce que leur élaboration ne soit pas le fait d'entreprise ou de sous-traitants méprisant les droits humains. Il leur appartiendra, grâce à cet amendement, d'obtenir des garanties des entreprises qui produisent ces technologies qu'elles ne sont pas issues de pratiques dégradant la dignité humaine. Plusieurs enquêtes journalistiques ont révélé des conditions de travail qui confinent à l'asservissement de l'humain par la machine. S'il est envisagé de recourir à ce type de technologie, il convient de veiller à ce qu'elles ne soient pas conçues dans de telles conditions. Tel est le sens de cet amendement. |
|
AMANR5L17PO59051B1142P0D1N000006
Dossier : 6
|
Voir le PDF |
Rejeté
28/01/2026
|
Cet amendement entend modifier le titre afin d'assurer son adéquation avec son contenu. Le titre des lois participe de l'objectif de valeur constitutionnel d'intelligibilité de la loi et doit être fidèle au contenu du texte. Aussi, il apparait que cette proposition de loi ne vise pas à "améliorer la protection des commerçants" mais à leur permettre d'utiliser la vidéosurveillance algorithmique". Une éventuelle évaluation ex post de ce texte pourra permettre de déterminer si cette possibilité a pu conduire à améliorer la protection des commerçants. En attendant, le titre proposé dans le présent amendement décrit fidèlement son contenu.
|
|
AMANR5L17PO59051B1142P0D1N000007
Dossier : 7
|
Voir le PDF |
Tombé
28/01/2026
|
Le présent amendement vise à sécuriser le régime de protection applicable aux données issues des technologies de vidéosurveillance algorithmique, compte tenu de la sensibilité particulière de ces traitements et des risques élevés qu’ils font peser sur le droit au respect de la vie privée. Le principe d’un stockage, d’un hébergement et d’un traitement exclusivement internes garantit une maîtrise complète de la chaîne de traitement, une traçabilité intégrale des accès et une responsabilisation accrue des responsables de traitement, réduisant ainsi significativement les risques de fuite, de détournement ou d’usage abusif des données. L’ouverture d’une dérogation strictement exceptionnelle, limitée aux seules hypothèses de risque grave et imminent pour la sécurité des systèmes d’information ou la continuité du service, permet de préserver tant la constitutionnalité que la conventionnalité du dispositif et de concilier la nécessité d’une protection accrue de ces données à l’opérabilité du déploiement de ces technologies. |
|
AMANR5L17PO59051B1142P0D1N000008
Dossier : 8
|
Voir le PDF |
Tombé
28/01/2026
|
Le présent amendement vise à renforcer les garanties encadrant la conservation et la transmission des données issues des technologies d’analyse automatique des images mises en œuvre dans le cadre des dispositifs de vidéosurveillance algorithmique, en limitant strictement leur transmission aux seules hypothèses de réquisition judiciaire et en prévoyant leur suppression dans un délai restreint, en accord avec les recommandations de la CNIL. En subordonnant toute transmission à l’existence d’une réquisition judiciaire, le présent amendement garantit un contrôle effectif par l’autorité judiciaire, seule légitime pour apprécier la nécessité et la proportionnalité de l’atteinte portée aux droits fondamentaux. La fixation d’un délai maximal de conservation de quarante-huit heures en l’absence d’événement, et de soixante-douze heures en cas d’incident, assure une minimisation stricte des données, au sens de l’article 5 du RGPD, tout en tenant compte des contraintes opérationnelles inhérentes à la qualification des faits et au déclenchement éventuel de la procédure pénale. L’effacement intégral et irréversible des données en l’absence de réquisition dans ces délais garantit une protection maximale contre toute conservation excessive, détournement de finalité ou usage abusif. |
|
AMANR5L17PO59051B1142P0D1N000009
Dossier : 9
|
Voir le PDF |
Rejeté
28/01/2026
|
Par cet amendement, les député.es du groupe LFI souhaitent supprimer cet article. Cet article propose d'autoriser les commerces à recourir à la vidéosurveillance algorithmique (VSA). Ce dispositif va à l'encontre de toute logique. Premièrement, la VSA à elle seule ne protègera pas contre le vol à l'étalage. Elle laisse entendre que le commerçant, qui dans la majorité des cas ne dispose pas d'agents de sécurité, devra donc interpeller – au titre de l'article 122-5 du Code pénal – une personne, et se mettre ainsi en danger. Ne nous y trompons pas, contrairement à ce qu'évoquent les exposés des motifs, cette PPL s'adresse surtout aux grands magasins et grandes chaînes qui disposent des moyens de financer de tels logiciels, ainsi qu'aux agents de sécurité privés. Deuxièmement, cette proposition de loi omet de questionner la structure des logiciels utilisés. Ces logiciels sont issus de grandes entreprises spécialisées dans la technopolice (Briefcam, Thalès, Chapsvision, etc.) qui ont besoin d'étendre leur marché et de vendre leurs logiciels. Pour ce faire, il faut étendre les cas d'usage de la VSA pour créer de "nouveaux" marchés. Quoi de mieux que de doter les commerces de ces logiciels ? Troisièmement, ce qu'omet de présenter cette proposition de loi est l'opacité qui entoure les logiciels de la VSA. Ces logiciels sont de véritables "boîtes noires" dont personne n'est capable de déterminer ce qu'elles "observent" réellement, les mouvements qu'elles considèrent comme "à risque". Ainsi, la Quadrature du Net a alerté depuis la loi sur les JOP de 2023, ces logiciels ne sont pas neutres et purement techniques, ils charrient les biais sécuritaires et autoritaires des entreprises qui les développent. Les comportements qui seront considérés à risque par le logiciel sont choisis par ceux qui développent celui-ci. D'ailleurs, et c'est notamment ce que révélait Disclose en 2020, le recours à la reconnaissance faciale est disponible sur de nombreux logiciels de VSA. Enfin, cette proposition de loi ne prend absolument pas en compte tous les risques liés au recours à la vidéosurveillance de manière générale. Aucune mesure n'est prise sur les risques d'intrusions frauduleuses sur le réseau de caméras et sur le vol de données captées par l'algorithme. Alors que 2025 a été l'année record de vols de données personnelles, cette proposition de loi ouvre un champ massif de vulnérabilité et de vols de données personnelles. En bref, cette proposition de loi ne répond qu'au lobbying des grandes entreprises de la technopolice qui n'ont besoin que d'une chose : un marché juteux. Nous ne lutterons pas contre les vols à l'étalage par la répression. Cette idée de "sécurité" par la vidéosurveillance est un fantasme et n'aura aucune réalité concrète. La vidéo "protection" ne protège rien, elle surveille au détriment du droit de chacun de disposer de sa liberté d'aller et venir et du respect de sa vie privée. Nous nous opposons fortement au développement de cette surveillance généralisée par la technopolice et alimentée par les concepts fumeux de "continuum de sécurité". |
|
AMANR5L17PO59051B1142P0D1N000019
Dossier : 19
|
Voir le PDF |
Non renseignée
Date inconnue
|
Cet amendement vise à dresser un premier bilan de l'effectivité de la vidéoprotection dans les commerces équipés et évaluera l'effet dissuasif. |