Expertises
Droit, technologies & prospectives
interview / Chloé PLÉDEL
RIA : LE CASSE-TÊTE DE LA MISE EN CONFORMITÉ

Droit, technologies & prospectives
Tous les mois, toute l'actualité du numérique... Et tellement plus !
Nos derniers numéros




























































N°457 – mai 2020
N°456 – avril 2020
N°455 – mars 2020
N°454 – février 2020
N°452 – décembre 2019
N°451 – novembre 2019
N°450 – octobre 2019
N°449 – septembre 2019
N°448 – juillet 2019

















Sommaire
Edito
Focus
En bref
L’information rapide sur le monde du numérique
Magazine
L’information légale et jurisprudentielle du numérique
Interview
Doctrines
Etats des lieux sur les réflexes et bonnes pratiques (3ème partie)
Scraping : face à un encadrement juridique complexe, quelles bonnes pratiques mettre en œuvre ?
La notion de consentement éclairé : comment sortir de l’impasse ?
IA : nouvelles fiches pratiques de la CNIL
La souveraineté de l’IA pour l’Europe : Utopie ou réalisme stratégique ?
Réseaux sociaux : usage illicite des données d’une salariée par l’employeur
IA et données personnelles : l’évolution naturelle du rôle du DPO
L'édito du mois
Prouver qu’on est humain
Une opératrice d’un centre d’appels d’American Express raconte qu’il lui arrive de plus en plus souvent de devoir convaincre son interlocuteur qu’elle est humaine. Et le moyen qu’elle a trouvé : l’imperfection, à savoir tousser, hésiter ou bien rire ou faire une blague. Avec la montée en puissance de l’intelligence artificielle et des bots, la frontière entre activité humaine et activité générée par des machines devient de plus en plus floue. En conséquence, il devient parfois difficile de distinguer un contenu produit par une vraie personne de celui généré par un bot, ce qui conduit à s’en méfier. Et pour cause. Une étude parue dans Nature en septembre dernier montre que déléguer des tâches à des systèmes d’IA peut nous inciter à faire des demandes malhonnêtes. Cela s’explique par trois facteurs. Le premier est psychologique : les interfaces IA encouragent la tricherie. Ensuite vient le facteur technique : les machines sont dociles. Enfin il y a le facteur organisationnel : le manque de garde-fous pour encadrer la délégation aux machines. Une enquête d’Ipsos, commanditée par Yousign indique par ailleurs que près d’un professionnel sur cinq déclarait avoir été directement confronté à un document falsifié.
Conséquence, la confiance s’érode et l’engagement est impacté. Or, notre économie repose sur la confiance, que ce soit dans les relations personnelles, avec les banques, les assurances, les sites marchands, dans le cadre d’un contrat ou en matière d’informations.
Mais comment s’assurer qu’on a affaire à un humain ? Des tests ont démontré que les Captcha peuvent être manipulés. On voit émerger une solution : la Proof-of-Personhood (PoP) qui permet de prouver son humanité sans révéler son identité réelle. Comble de l’ironie, Sam Altman cofondateur et PDG d’OpenAI, leader de l’IA générative, a lancé un système pour certifier le vrai. Worldcoin ID repose sur la blockchain et la biométrie. Un appareil appelé Orb scanne l’iris des utilisateurs et génère une World ID, une preuve d’humanité, une identité numérique unique mondiale.
Pour établir la confiance sans avoir à révéler son identité, il faut confier une donnée biométrique à une société privée. Lors de son lancement en France en juillet 2023, la Cnil s’est inquiétée du sujet car « la légalité de la collecte des données semble douteuse, tout comme les conditions de stockage des données biométriques”, et a transmis la question à l’autorité bavaroise de protection des données, lieu du siège social de la société européenne, dans le cadre du guichet unique prévu par le RGPD, qui avait ouvert une enquête en avril. Le 19 décembre 2024, la BayLDA a conclu que le système enfreignait le RGPD et a enjoint la société de supprimer les données enregistrées et d’obtenir le consentement explicite pour certaines étapes du traitement à l’avenir. L’Orb de Worldcoin, rebaptisé simplement World, a été retiré mais se développe aux Etats-Unis. La société prétend que son système a été mal compris et que les données ne sortent pas de l’Orb.
En tout cas, dans le contexte actuel où on ne peut plus distinguer le vrai du faux, le vivant du minéral, la certification devient plus que jamais vitale. Un marché à l’avenir assuré.
Le focus du mois
Protéger sans surveiller
Les Etats sont de plus en plus nombreux à imposer un contrôle de l’accès des mineurs à des contenus pour adultes. Un équilibre à trouver entre faisabilité technique et respect des libertés.

2025 apparaît comme une année charnière pour la protection des mineurs sur internet. Les Etats sont de plus en plus nombreux à prendre conscience des effets délétères des sites « pour adultes », des réseaux sociaux et de l’IA sur la santé mentale des enfants et des adolescents. Et une fois n’est pas coutume, la nécessité de réglementer l’accès aux mineurs fait l’objet d’un consensus. Des lois sont adoptées un peu partout dans le monde pour limiter voire interdire leur accès aux plus jeunes. Mais ce concert des nations fait face à l’hostilité de certains sites, notamment pornographiques, qui ne vérifient pas l’âge des utilisateurs. La mise en place de la vérification de l’âge se heurte aussi à un public adulte qui craint une surveillance généralisée de l’internet et aux contournements des règles, notamment comme le recours aux VPN.
Dès 2020, la France s’est attaquée à l’épineuse question de l’accès des mineurs à des contenus pornographiques ou violents. Deux lois, celle du 30 juillet 2020 et celle du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique (SREN) se sont focalisées sur les sites pornographiques. Chaque mois, 2,3 millions de mineurs fréquentent ces sites, 12% de l’audience provient des mineurs, selon les chiffres de l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom). La loi SREN impose l’obligation de vérifier l’âge des internautes. Elle a par ailleurs chargé l’Arcom de l’établissement d’un référentiel technique de contrôle de l’âge. Applicable depuis le 11 avril, il procure aux éditeurs des solutions permettant de respecter le « double anonymat », en conformité avec les exigences techniques minimales applicables aux systèmes de vérification de l’âge.
L’Union européenne n’est pas en reste sur le sujet. Dans le cadre de l’article 28 du DSA sur la protection des mineurs en ligne, la Commission a rendu publique, le 14 juillet dernier, ses lignes directrices établissant une liste non exhaustive de mesures proportionnées et appropriées pour protéger les enfants contre les risques en ligne tels que les contenus sexuels ou haineux, les comportements problématiques et addictifs, ainsi que le cyberharcèlement et les pratiques commerciales préjudiciables. Ce socle de référence est destiné à devenir la norme de conformité dans l’ensemble de l’UE. Le dispositif devrait être disponible au printemps 2026, juste avant le déploiement du portefeuille d’identité numérique européen prévu pour fin 2026. D’ici là, cinq États participent à une phase de test : le Danemark, la France, la Grèce, l’Italie et l’Espagne.
Mais en même temps, l’UE peine à faire adopter « Chat Control », le projet de règlement européen « établissant des règles en vue de prévenir et de combattre les abus sexuels sur enfants », baptisé « Child Sexual Abuse Regulation » ou CSAR. Au nom du très louable objectif de protéger les jeunes, ce texte est accusé de conduire à une surveillance de masse du fait qu’il obligerait les messageries et services numériques à scanner les messages, images, vidéos et fichiers échangés sur leurs plateformes et applications, y compris les communications chiffrées de bout en bout sur WhatsApp, Telegram ou Signal. La prochaine réunion des ministres de l’Intérieur de l’Union européenne est désormais programmée pour les 6 et 7 décembre, où ce dossier devrait être à nouveau discuté.
Aux Etats-Unis, pays plutôt rétif à la règlementation, une vingtaine d’États ont déjà adopté des lois pour protéger les enfants en ligne, que ce soit par le contrôle de l’accès aux réseaux sociaux ou aux contenus préjudiciables. Mais elles ont fait l’objet de contestations judiciaires quasi immédiates, ce qui s’est traduit par le blocage par les tribunaux fédéraux de leur application en attendant la position de la Cour suprême. Celle-ci est intervenue le 27 juin 2025, dans l’affaire Free Speech Coalition c. Paxton, dans laquelle elle s’est prononcée en faveur de la loi texane, qui exige la vérification de l’âge des utilisateurs par les sites pour adultes avant d’en autoriser l’accès, en concluant à l’absence d’atteinte à la liberté d’expression des adultes.
Au niveau fédéral, le projet de loi Kids Online Safety Act a de nouveau été présenté le 14 mai 2025. Sur la base d’un « devoir de diligence », il vise à imposer aux sites et aux plateformes en ligne de prendre des mesures pour empêcher que des contenus potentiellement préjudiciables soient proposés aux enfants. Mais ce texte transpartisan est également accusé d’ouvrir la voie à la censure de l’internet et à la surveillance généralisée. De son côté, la Californie qui dispose déjà d’une législation protectrice des enfants sur internet, a adopté le 13 octobre dernier la loi SB 243 qui impose aux plateformes des obligations de vérification de l’âge, des protocoles de lutte contre le suicide et l’automutilation, des avertissements concernant les réseaux sociaux. Elle prévoit aussi des sanctions plus sévères pour ceux qui profitent de deepfakes illégaux, contribuant ainsi à garantir que la sécurité des enfants reste une priorité absolue.
Aussi au Royaume-Uni, l’Online Safety Act britannique du 26 octobre 2023, entré en vigueur le 25 juillet 2025, impose des obligations strictes de vérification d’âge aux plateformes diffusant des contenus pour adultes ou potentiellement dangereux pour les mineurs. Le non-respect de ces obligations peut faire l’objet de sanctions financières allant jusqu’à 18 millions de livres sterling (20,7 millions d’euros environ) ou 10% du chiffre d’affaires mondial de l’entreprise. L’Australie a voté une loi fin 2024 qui interdit les réseaux sociaux aux moins de 16 ans, qui doit s’appliquer d’ici fin 2025. En août dernier, le Brésil a également adopté une législation protectrice. Et des projets de loi ont été présentés en Espagne, en Norvège, au Maroc, en Corée du sud, etc.
Quant à la Chine qui est accusée de nuire aux jeunes du monde via son réseau social TikTok, elle protège fermement les siens. Depuis septembre 2023, les mineurs chinois sont interdits d’internet la nuit entre 22 heures et 6 heures du matin. Les moins de huit ans ne pourront, par exemple, pas y passer plus de 40 minutes par jour. Le temps passé en ligne est contrôlé par un chronomètre installé sur les téléphones portables qui doivent être équipés d’un mode mineur avec un système de reconnaissance faciale pour identifier l’utilisateur et lui donner accès à Internet. Si le principe d’une protection des mineurs sur internet par la vérification de l’âge est largement admis, sa mise en œuvre expose cependant le régulateur à une double gageure, à la fois technique et juridique. Il doit d’une part être capable d’imposer des standards robustes et audités. Il doit d’autre part protéger sans surveiller en promouvant des solutions de vérification réellement respectueuses du principe de double anonymat. C’est ce que l’Union européenne s’emploie à faire dans le cadre du DSA.
L'invité du mois
Interview / Chloé Plédel
RIA : le casse-tête de la mise en conformité
Le règlement européen sur l’intelligence artificielle est un texte nécessaire et équilibré mais son implémentation reste chaotique, estime Chloé Plédel, responsable des affaires européennes et réglementaires de Hub France IA. Selon elle, la Commission européenne n’avait pas anticipé que ce texte susciterait tant d’interrogations et qu’il nécessiterait d’autant de soutiens et d’explications de sa part. Aujourd’hui, un certain de normes ne sont pas disponibles mais aussi des lignes directrices destinées à clarifier les concepts et les obligations du RIA. Au final, les textes sont loin d’être prêts pour qu’on puisse vraiment se mettre en conformité. Au-delà du coût qui peut être dissuasif pour une PME, Chloé Plédel nous explique en quoi l’obligation de mise en conformité dans le contexte actuel représente un vrai casse-tête générateur d’incertitudes juridiques particulièrement pour les PME pouvant freiner, voire stopper leurs développements de projets d’IA.

Sylvie Rozenfeld : Chloé Plédel, vous êtes responsable des affaires européennes et réglementaires de Hub France IA, une association fédératrice de l’écosystème IA français qui a pour vocation de favoriser le déploiement de l’IA en France. Le décryptage de la règlementation complexe, qui peut être un frein à l’adoption de l’IA, fait partie de vos missions. Or, les exigences réglementaires n’ont pas le même poids pour les grandes entreprises et pour les PME dont la mise en conformité représente un coût qui peut être dissuasif. La Commission européenne dans son analyse d’impact du règlement sur l’intelligence artificielle (RIA) en 2021 avait estimé ce coût à 5% du montant alloué au développement de système d’IA soit une moyenne de 10 000 euros. En 2023, vous avez participé à une étude avec plusieurs de vos partenaires européens travaillant avec des PME et start-ups qui a évalué les coûts entre 160 000 à 330 000 euros pour une entreprise développant un système d’IA. Quels sont ces coûts, pour quels types d’IA comment ont-ils été calculés ?
Chloé Plédel : Cette étude paneuropéenne portant sur une quinzaine de pays a été réalisée avec notre partenaire allemand, Apply AI Germany. On a soumis un questionnaire à nos membres, et à partir de leurs réponses, on a produit des statistiques qui ont conduit à ce chiffre sur les coûts. Il est beaucoup plus important que celui de la Commission et il s’explique par trois facteurs différents. D’abord, les PME n’ont pas vraiment de processus de gestion de la qualité et de la sécurité très développés. Cela nécessite d’investir et de recruter pour remplir toutes ces exigences. Pour bénéficier d’une présomption de conformité, il faut par ailleurs adhérer à des normes pour être conforme d’un point de vue technique. Or, il y a une dizaine de normes concernant le RIA : elles sont payantes et elles impliquent de se faire auditer pour obtenir la certification. S’ajoute enfin à cela l’expertise juridique que ne possède pas forcément une start-up, ce qui nécessite de faire appel à un prestataire externe qui va auditer le système d’IA, qualifier le niveau de risques et les obligations afférentes. Tout cela a un coût.
La Commission n‘a-t-elle pas pris tous ces coûts en compte ?
Elle est partie sur la base d’une entreprise qui possède déjà les ressources pour absorber cette réglementation. L’estimation de 5% que je citais dans l’article est basée sur l’analyse d’impact du RIA. 10 000 € semble dérisoire d’autant que ça couvre à peine le prix des normes.
Votre chiffre correspond-il à celui de la mise en conformité ?
Oui, la mise en conformité pour un système d’IA. Notre chiffre de 330 000 € représente la fourchette haute s’appliquant à un système d’IA à haut risque qui nécessite beaucoup plus de moyens. Il concerne les développeurs de systèmes d’IA, responsables de leur fonctionnement et de leur conformité au RIA. Les déployeurs, donc les utilisateurs, ont d’autres obligations telles que monitorer le bon fonctionnement du système d’IA, vérifier que les journaux (logs) soient tenus et à jour, que l’accès soit réservé à des personnes qualifiées, etc. Ce sont des coûts différents et moins importants que ceux des développeurs qui portent sur l’application des normes techniques et organisationnelles.
Considérez-vous que ces coûts de mise en conformité remettent en cause pour certains le recours à l’IA ?
C’est ce qu’on a constaté quand le règlement est devenu applicable. Certains nous expliquent qu’ils ont des projets de cas d’usage mais ne savent pas s’ils vont continuer les développements car ils sont freinés par les coûts de mise en conformité ou qu’ils doivent retarder l’embauche de développeurs, d’ingénieurs IA, d’experts métiers pour recruter un juriste ou faire appel à un cabinet externe. Une PME peut donc être contrainte de renoncer à innover et préférer rester sur une solution moins risquée car moins coûteuse en conformité. Quant à l’utilisateur, il va subir ce coût de la conformité car il sera répercuté dans le prix de la solution. Il faut aussi faire la distinction entre une grande entreprise et une PME qui veut devenir utilisatrice d’IA. La première a déjà mis en place de nombreux process, elle a l’habitude de gérer des projets, elle dispose d’un service juridique, du personnel et des moyens. In fine, la mise en place d’un tel système constitue un nouveau process, des juristes internes vont établir des modèles de dossiers et de fiches déclaratives. Pour les PME en revanche qui n’ont pas les compétences en interne, elles doivent former un salarié, mettre en place tous les process. Donc le coût est proportionnellement très important pour une PME et donc plus dissuasif. Pour c…
Les doctrines du mois
Etats des lieux sur les réflexes et bonnes pratiques (3ème partie)
Après avoir exposé les caractéristiques essentielles, communes aux contrats passés pour l’informatisation des entreprises (1ère partie), ont été abordées les clauses particulièrement sensibles que l’on retrouve dans la plupart d’entre eux (2ème partie), la troisième et dernière partie de cette étude porte sur les spécificités propres à certains d’entre eux.
Scraping : face à un encadrement juridique complexe, quelles bonnes pratiques mettre en œuvre ?
À l’ère de l’intelligence artificielle et de l’hyper-connectivité, le scraping incarne à la fois la promesse d’un accès illimité à l’information et le risque d’une captation silencieuse ce qui, hier encore, relevait de la sphère privée.
La notion de consentement éclairé : comment sortir de l’impasse ?
La collecte de consentements par des courtiers en données en vue de leur transmission à des partenaires souhaitant effectuer de la prospection commerciale connait de nouveaux remous. Malgré de nombreuses décisions de la Cnil à ce sujet, les acteurs économiques continuent de s’interroger sur ce régime, au point de requérir des éclaircissements de la CJUE.
IA : nouvelles fiches pratiques de la CNIL
La doctrine de la CNIL en matière d’intelligence artificielle (IA) continue de s’étoffer. Après une première salve de fiches pratiques publiées à partir d’avril 2024 sur des thèmes tels que la détermination du régime juridique, la détermination d’une finalité et d’une base légale, la qualification juridique des acteurs, la réutilisation des données ou l’analyse d’impact, la CNIL a finalisé courant juillet 2025 ses recommandations sur le développement des systèmes d’IA.
La souveraineté de l’IA pour l’Europe : Utopie ou réalisme stratégique ?
L'intelligence artificielle (IA) occupe désormais une place centrale qui met en lumière l’asymétrie entre la promesse d’un progrès partagé et la réalité d’une concentration technologique et économique. Elle est plus que jamais un enjeu d’indépendance, appelant à une utopie politique qui vise à reprendre le contrôle sur les outils numériques. Elle est ainsi le théâtre d’un réalisme stratégique, où innovation et responsabilité auront à cohabiter. Face à la domination des grandes puissances technologiques, comment la France et l’Europe peuvent-elles construire leur souveraineté en matière d'IA ? Une réponse semble se dessiner, mêlant idéal collectif et lucidité géopolitique, non sans ambiguïtés et inquiétudes…
Réseaux sociaux : usage illicite des données d’une salariée par l’employeur
Comme chaque mois, Alexandre Fievée sélectionne une décision sur la protection des données personnelles rendue par une autorité de contrôle ou une juridiction étrangère. Ce mois-ci, il se penche sur la question de l’utilisation par un employeur, dans le cadre d’une procédure disciplinaire, de plusieurs messages publiés par une salariée sur ses comptes WhatsApp et Messenger, ainsi que de plusieurs contenus issus de son profil Facebook.
IA et données personnelles : l’évolution naturelle du rôle du DPO
Le DPO, habitué à la « mécanique règlementaire » exigée par le RGPD, apparaît comme un acteur naturel de la mise en conformité au RIA, dont les obligations sont construites de la même façon que celles du RGPD.
Tous les mois, toute l'actualité du numérique... Et tellement plus !
FORMULES D'ABONNEMENT
