Expertises
Droit, technologies & prospectives

interview / Chloé PLÉDEL

RIA : LE CASSE-TÊTE DE LA MISE EN CONFORMITÉ

Droit, technologies & prospectives

Tous les mois, toute l'actualité du numérique... Et tellement plus !

Nos derniers numéros

EXPERTISES N°517 - novembre 2025 - RIA : LE CASSE-TÊTE DE LA MISE EN CONFORMITÉ / Chloé PLÉDEL
N°517 – novembre 2025
EXPERTISES N°516 - octobre 2025 - Nouvelle ouverture de GTLD : Risques et opportunités / Vincent DENOYELLE, Marianne GEORGELIN et Cédric MICHEL-FLANDIN
N°516 – octobre 2025
EXPERTISES N°515 - septembre 2025 - L’impact du numérique sur nos libertés / Pauline Türk
N°515 – septembre 2025
EXPERTISES N°514 - juillet 2025 - CONTRATS LOGICIELS : TOUS CAPTIFS ? / Alexandre DIEHL
N°514 – juillet 2025
EXPERTISES N°513 - juin 2025 - Legal Ops, le COO de la direction juridique / EMILIE CALAME / FELIPE BORGES
N°513 – juin 2025
EXPERTISES N°512 - mai 2025 - CONTREFAÇON DE LOGICIEL À L’ÈRE DE L’IA / Claire BERNIER, Vincent GEOFFRAY et Bruce BONNAURE
N°512 – mai 2025
EXPERTISES N°511 - avril 2025 - Souveraineté numérique : idéal ou réalité ? / Philippe Latombe
N°511 – avril 2025
EXPERTISES N°510 - mars 2025 - LA LIBERTÉ D’EXPRESSION MENACÉE PAR LE RGPD ? / Alexandre FIÉVÉE
N°510 – mars 2025
EXPERTISES N°509 - février 2025 - RÉSOUDRE LES LITIGES DE CRYPTOMONNAIES / Christophe DUGUÉ
N°509 – février 2025
EXPERTISES N°508 - janvier 2025 - L’IAG pour les juristes, Oui mais avec précautions / Yannick Meneceur
N°508 – janvier 2025
EXPERTISES N°507 - décembre 2024 - LE RGPD, UNE AVENTURE LÉGISLATIVE / Jérôme DEROULEZ
N°507 – décembre 2024
EXPERTISES N°506 - novembre 2024 - L’IA POUR LA PRÉVENTION DES RISQUES IT / David FELDMAN
N°506 – novembre 2024
EXPERTISES N°505 - octobre 2024 - UNE IA DE CONFIANCE EST-ELLE POSSIBLE ? / Murielle POPA-FABRE
N°505 – octobre 2024
EXPERTISES N°504 - septembre 2024 - ACCULTURATION DES PME AU RGPD : VERS UNE CONFORMITÉ FACILITÉE / Sophie NERBONNE
N°504 – septembre 2024
EXPERTISES N°503 - juillet 2024 - RELATION CLIENT/FOURNISSEUR, UN DÉSÉQUILIBRE EN ÉVOLUTION / Stéphane LEMARCHAND
N°503 – juillet 2024
EXPERTISES N°502 - juin 2024 - Société à mission, un statut prisé par la Tech / Garance Mathias et François Gorriez
N°502 – juin 2024
EXPERTISES N°501 - mai 2024 - SAINT-GOBAIN : UNE GESTION AGILE DES FLUX TRANSFRONTIERES ET DES DONNEES / Charlène GABILLAT et Emma GOLDITÉ
N°501 – mai 2024
EXPERTISES N°500 - avril 2024 - DROIT DU NUMÉRIQUE : RÉTROSPECTIVE ET PERSPECTIVES / Alain BENSOUSSAN
N°500 – avril 2024
EXPERTISES N°499 - mars 2024 - Extra -                                                                                                                                                                                                                                         Territorialité: menaces et solution / Pierre DESMARAIS
N°499 – mars 2024
EXPERTISES N°498 - février 2024 - Rassurer les assureurs sur la Blockchain / Nicolas Hélénon, Delphine Mercelat, Emmanuel du Ranquet
N°498 – février 2024
EXPERTISES N°497 - janvier 2024 - FiDA, l’open finance qui fait peur à l’assurance / Anne-Sophie Morvan
N°497 – janvier 2024
EXPERTISES N°496 - décembre 2023 - Le droit, créateur d’un marché de la donnée / Marie-Hélène Tonnellier
N°496 – décembre 2023
EXPERTISES N°495 - novembre 2023 - L’Europe de la donnée, malgré les différences / Simon Chignard
N°495 – novembre 2023
EXPERTISES N°494 - octobre 2023 - Se défendre dans la jungle des noms de domaine wEB3 / Matthieu Quiniou
N°494 – octobre 2023
EXPERTISES N°493 - septembre 2023 - RGPD & Droit de la concurrence « Entente » mode d’emploi / Richard Milchior
N°493 – septembre 2023
EXPERTISES N°492 - juillet 2023 - DPO : un métier en souffrance / Bruno RASLE
N°492 – juillet 2023
EXPERTISES N°491 - juin 2023 - L’UE s’investit dans les crypto-actifs / Arnaud Touati
N°491 – juin 2023
EXPERTISES N°490 - mai 2023 - Transhumanisme : un changement de civilisation / Amandine Cayol, Emilie Gaillard et Coline Vuillermet
N°490 – mai 2023
EXPERTISES N°489 - avril 2023 - Anonymiser : une question de gestions de risques / Maryline Laurent
N°489 – avril 2023
EXPERTISES N°488 - mars 2023 - Actifs immatériels : Une valeur encore trop sous-estimée / Sylvie Gamet
N°488 – mars 2023
EXPERTISES N°487 - février 2023 - Flux transatlantique de données : Des progrès mais… / Bradley Joslove
N°487 – février 2023
EXPERTISES N°486 - janvier 2023 - L’intelligence juridique : pour un juriste stratège / Véronique Chapuis-Thuault
N°486 – janvier 2023
EXPERTISES N°485 - décembre 2022 - Les problématiques virtuelles des métavers / Caroline Laverdet
N°485 – décembre 2022
EXPERTISES N°484 - novembre 2022 - BIG DATA DEMATERIALISATION DU REEL / Antoinette Rouvroy
N°484 – novembre 2022
EXPERTISES N°483 - octobre 2022 - Intelligence artificielle : Vers une justice plus sécurisée / Thomas Cassuto
N°483 – octobre 2022
EXPERTISES N°482 - septembre 2022 - MiCA, un règlement qui manque de hauteur / Pierre Storrer
N°482 – septembre 2022
EXPERTISES N°481 - juillet 2022 - Néobanques, le far west bancaire / Aude Poulain de Saint Père
N°481 – juillet 2022
EXPERTISES N°480 - juin 2022 - Géopolitique du numérique et risque de fragmentation / HENRI VERDIDER
N°480 – juin 2022
EXPERTISES N°479 - mai 2022 - Ransomware : payez la rançon l'assurance rembourse / Valéria FAURE-MUNTIAN
N°479 – mai 2022
EXPERTISES N°478 - avril 2022 - RÉDUIRE LA POLLUTION DU NUMÉRIQUE : UNE LOI PIONNIÈRE / Patrick CHAIZE et Frédéric BORDAGE
N°478 – avril 2022
EXPERTISES N°477 - mars 2022 - LE CASSE-TETE DE LA FISCALITE DES CRYPTO-MONNAIES / Frédéric poilpré
N°477 – mars 2022
EXPERTISES N°476 - février 2022 - Véhicule connecté : l'enjeu des données / Romain Perray
N°476 – février 2022
EXPERTISES N°475 - janvier 2022 - DROIT DU LOGICIEL : ETAT DES LIEUX / Bernard LAMON
N°475 – janvier 2022
EXPERTISES N°474 - décembre 2021 - Open data judiciaire : Un lancement prudent / Estelle Jond-Necand
N°474 – décembre 2021
EXPERTISES N°473 - novembre 2021 - La data au cœur des investigations internes / Jean-Julien Lemonnier
N°473 – novembre 2021
EXPERTISES N°472 - octobre 2021 - ROMAIN DARRIERE / INFLUENCEURS VERS LA MATURITÉ
N°472 – octobre 2021
EXPERTISES N°471 - septembre 2021 - ENTENTES ALGORITHMIQUES / NATASHA TARDIF
N°471 – septembre 2021
EXPERTISES N°470 - juillet 2021 - Brevets IA : les écueils à éviter / Mathias Robert
N°470 – juillet 2021
EXPERTISES N°469 - juin 2021 - IA : POUR UN DROIT DE RUPTURE / ALAIN BENSOUSSAN
N°469 – juin 2021
EXPERTISES N°468 - mai 2021 - Néoassurance, un modèle qui émerge / Christophe Dandois
N°468 – mai 2021
EXPERTISES N°467 - mars 2021 - Humain / machine : la nouvelle division du travail juridique / Olivier CHADUTEAU
N°467 – mars 2021
EXPERTISES N°466 - mars 2021 - DSA/DMA : CHANGEMENT DANS LA CONTINUITÉ / ANNE COUSIN ET JEAN-MATHIEU COT
N°466 – mars 2021
EXPERTISES N°465 - février 2021 - CMP : UN PASSEUR DE CONSENTEMENT / Romain BESSUGES-MEUSY
N°465 – février 2021
EXPERTISES N°464 - janvier 2021 - L’expertise-conciliation : pacifier les litiges / Fabien CLEUET et François-Pierre LANI
N°464 – janvier 2021
EXPERTISES N°463 - décembre 2020 - Matching prédictif un recrutement biaisé / Stéphanie Lecerf
N°463 – décembre 2020
EXPERTISES N°462 - novembre 2020 - La révolution open banking / Thibault Verbiest
N°462 – novembre 2020
EXPERTISES N°461 - octobre 2020 - IA en procès / Yannick Meneceur
N°461 – octobre 2020
EXPERTISES N°460 - septembre 2020 - Smart city : intérêt général by design / Jacques Priol
N°460 – septembre 2020
EXPERTISES N°459 - juillet 2020 - Transmettre l'immatériel / David Ayache
N°459 – juillet 2020
EXPERTISES N°458 - juin 2020 - Les racines de notre dépendance technologique / Christian HARBULOT
N°458 – juin 2020
EXPERTISES N°457 - mai 2020 - Covid 19 & données personnelles<br>De la défiance à la confiance / Yann Padova » title= »EXPERTISES N°457 – mai 2020 – Covid 19 & données personnelles<br>De la défiance à la confiance / Yann Padova » description= »EXPERTISES N°457 – mai 2020-  Covid 19 & données personnelles<br>De la défiance à la confiance / Yann Padova »></div>
<div class=N°457 – mai 2020
EXPERTISES N°456 - avril 2020 - Pour l’ouverture<br>des données privées / Laurent Lafaye » title= »EXPERTISES N°456 – avril 2020 – Pour l’ouverture<br>des données privées / Laurent Lafaye » description= »EXPERTISES N°456 – avril 2020-  Pour l’ouverture<br>des données privées / Laurent Lafaye »></div>
<div class=N°456 – avril 2020
EXPERTISES N°455 - mars 2020 - Profilage :<br> pratiques & parades / Cédric Lauradoux » title= »EXPERTISES N°455 – mars 2020 – Profilage :<br> pratiques & parades / Cédric Lauradoux » description= »EXPERTISES N°455 – mars 2020-  Profilage :<br> pratiques & parades / Cédric Lauradoux »></div>
<div class=N°455 – mars 2020
EXPERTISES N°454 - février 2020 - La robustesse de<br>la PI face A l’IA / Franck Macrez » title= »EXPERTISES N°454 – février 2020 – La robustesse de<br>la PI face A l’IA / Franck Macrez » description= »EXPERTISES N°454 – février 2020-  La robustesse de<br>la PI face A l’IA / Franck Macrez »></div>
<div class=N°454 – février 2020
EXPERTISES N°453 - janvier 2020 - RGPD : une révolution dans la continuité / Ariane MOLE
N°453 – janvier 2020
EXPERTISES N°452 - décembre 2019 - le droit de<br>la compliance<br>pour réguler l’internet / Marie-Anne Frison-Roche » title= »EXPERTISES N°452 – décembre 2019 – le droit de<br>la compliance<br>pour réguler l’internet / Marie-Anne Frison-Roche » description= »EXPERTISES N°452 – décembre 2019-  le droit de<br>la compliance<br>pour réguler l’internet / Marie-Anne Frison-Roche »></div>
<div class=N°452 – décembre 2019
EXPERTISES N°451 - novembre 2019 - Data brokers :</br>le trou noir</br>des données personnelles / Antoine Dubus » title= »EXPERTISES N°451 – novembre 2019 – Data brokers :</br>le trou noir</br>des données personnelles / Antoine Dubus » description= »EXPERTISES N°451 – novembre 2019-  Data brokers :</br>le trou noir</br>des données personnelles / Antoine Dubus »></div>
<div class=N°451 – novembre 2019
EXPERTISES N°450 - octobre 2019 - Numérique :<br>le défi fiscal / Frédéric Douet » title= »EXPERTISES N°450 – octobre 2019 – Numérique :<br>le défi fiscal / Frédéric Douet » description= »EXPERTISES N°450 – octobre 2019-  Numérique :<br>le défi fiscal / Frédéric Douet »></div>
<div class=N°450 – octobre 2019
EXPERTISES N°449 - septembre 2019 - L'impérialisme<br>juridique / Olivier de Maison Rouge » title= »EXPERTISES N°449 – septembre 2019 – L’impérialisme<br>juridique / Olivier de Maison Rouge » description= »EXPERTISES N°449 – septembre 2019-  L’impérialisme<br>juridique / Olivier de Maison Rouge »></div>
<div class=N°449 – septembre 2019
EXPERTISES N°448 - juillet 2019 - DPO : un métier<br>qui s’installe / Paul Olivier Gibert » title= »EXPERTISES N°448 – juillet 2019 – DPO : un métier<br>qui s’installe / Paul Olivier Gibert » description= »EXPERTISES N°448 – juillet 2019-  DPO : un métier<br>qui s’installe / Paul Olivier Gibert »></div>
<div class=N°448 – juillet 2019
EXPERTISES N°447 - juin 2019 - Le RGPD : du droit sans vision stratégique / Julien Nocetti
N°447 – juin 2019
EXPERTISES N°446 - mai 2019 - IGN : la gratuitE des données en question / Marie Pisan
N°446 – mai 2019
EXPERTISES N°445 - avril 2019 - Nom de domaine un actif et des risques / Nathalie Dreyfus
N°445 – avril 2019
EXPERTISES N°444 - mars 2019 - Les logiciels libres, un modèle mature / Benjamin Jean
N°444 – mars 2019
EXPERTISES N°443 - février 2019 - Résister à la gouvernance algorithmique / François Pellegrini
N°443 – février 2019
EXPERTISES N°442 - janvier 2019 - Anticiper sa survie numérique au-delà de sa mort / Mathieu Fontaine
N°442 – janvier 2019
EXPERTISES N°441 - décembre 2018 - Intelligence artificielle et médecine quelle éthique pour demain ? / David Gruson
N°441 – décembre 2018
EXPERTISES N°440 - novembre 2018 - Blockchain AS A SERVICE Démocratisation de la blockchain ? / Marc-Antoine Ledieu
N°440 – novembre 2018
EXPERTISES N°439 - octobre 2018 - Nathalie Nevejans / Nathalie Nevejans
N°439 – octobre 2018
EXPERTISES N°438 - septembre 2018 - Pour la médiation judiciaire en  propriété  intellectuelle / Françoise Barutel Naulleau
N°438 – septembre 2018
EXPERTISES N°437 - juillet 2018 - Science-fiction : quand l’imaginaire devient source de droit / Fabrice Defferrard
N°437 – juillet 2018
EXPERTISES N°436 - juin 2018 - CONTRATS, Accès indirects & coûts cachés : SAP BRISE LA GLACE AVEC Ses utilisateurs / Gianmaria Perancin
N°436 – juin 2018
EXPERTISES N°435 - mai 2018 - L’innovation prédatrice Un nouveau défi pour le droit de la concurrence / Thibault Schrepel
N°435 – mai 2018
EXPERTISES N°434 - avril 2018 - LES données LA NOUVELLE INGENIéRIE  DU POUVOIR / Adrien Basdevant
N°434 – avril 2018
EXPERTISES N°433 - mars 2018 - L’open data de la jurisprudence : Le casse-tête de l’anonymisation / Loïc Cadiet
N°433 – mars 2018
EXPERTISES N°432 - février 2018 - RGPD : vers un futur standard global / Max Schrems
N°432 – février 2018
EXPERTISES N°431 - janvier 2018 - L’angoisse du RGPD la Cnil rassure / Jean Lessi
N°431 – janvier 2018
EXPERTISES des systèmes d’informationnovembre 2025 – N°517

L'édito du mois

Prouver qu’on est humain

Une opératrice d’un centre d’appels d’American Express raconte qu’il lui arrive de plus en plus souvent de devoir convaincre son interlocuteur qu’elle est humaine. Et le moyen qu’elle a trouvé : l’imperfection, à savoir tousser, hésiter ou bien rire ou faire une blague. Avec la montée en puissance de l’intelligence artificielle et des bots, la frontière entre activité humaine et activité générée par des machines devient de plus en plus floue. En conséquence, il devient parfois difficile de distinguer un contenu produit par une vraie personne de celui généré par un bot, ce qui conduit à s’en méfier. Et pour cause. Une étude parue dans Nature en septembre dernier montre que déléguer des tâches à des systèmes d’IA peut nous inciter à faire des demandes malhonnêtes. Cela s’explique par trois facteurs. Le premier est psychologique : les interfaces IA encouragent la tricherie. Ensuite vient le facteur technique : les machines sont dociles. Enfin il y a le facteur organisationnel : le manque de garde-fous pour encadrer la délégation aux machines. Une enquête d’Ipsos, commanditée par Yousign indique par ailleurs que près d’un professionnel sur cinq déclarait avoir été directement confronté à un document falsifié.
Conséquence, la confiance s’érode et l’engagement est impacté. Or, notre économie repose sur la confiance, que ce soit dans les relations personnelles, avec les banques, les assurances, les sites marchands, dans le cadre d’un contrat ou en matière d’informations.
Mais comment s’assurer qu’on a affaire à un humain ? Des tests ont démontré que les Captcha peuvent être manipulés. On voit émerger une solution : la Proof-of-Personhood (PoP) qui permet de prouver son humanité sans révéler son identité réelle. Comble de l’ironie, Sam Altman cofondateur et PDG d’OpenAI, leader de l’IA générative, a lancé un système pour certifier le vrai. Worldcoin ID repose sur la blockchain et la biométrie. Un appareil appelé Orb scanne l’iris des utilisateurs et génère une World ID, une preuve d’humanité, une identité numérique unique mondiale.
Pour établir la confiance sans avoir à révéler son identité, il faut confier une donnée biométrique à une société privée. Lors de son lancement en France en juillet 2023, la Cnil s’est inquiétée du sujet car « la légalité de la collecte des données semble douteuse, tout comme les conditions de stockage des données biométriques”, et a transmis la question à l’autorité bavaroise de protection des données, lieu du siège social de la société européenne, dans le cadre du guichet unique prévu par le RGPD, qui avait ouvert une enquête en avril. Le 19 décembre 2024, la BayLDA a conclu que le système enfreignait le RGPD et a enjoint la société de supprimer les données enregistrées et d’obtenir le consentement explicite pour certaines étapes du traitement à l’avenir. L’Orb de Worldcoin, rebaptisé simplement World, a été retiré mais se développe aux Etats-Unis. La société prétend que son système a été mal compris et que les données ne sortent pas de l’Orb.
En tout cas, dans le contexte actuel où on ne peut plus distinguer le vrai du faux, le vivant du minéral, la certification devient plus que jamais vitale. Un marché à l’avenir assuré.

Le focus du mois

Accès des mineurs à internet

Protéger sans surveiller

Les Etats sont de plus en plus nombreux à imposer un contrôle de l’accès des mineurs à des contenus pour adultes. Un équilibre à trouver entre faisabilité technique et respect des libertés.

2025 apparaît comme une année charnière pour la protection des mineurs sur internet. Les Etats sont de plus en plus nombreux à prendre conscience des effets délétères des sites « pour adultes », des réseaux sociaux et de l’IA sur la santé mentale des enfants et des adolescents. Et une fois n’est pas coutume, la nécessité de réglementer l’accès aux mineurs fait l’objet d’un consensus. Des lois sont adoptées un peu partout dans le monde pour limiter voire interdire leur accès aux plus jeunes. Mais ce concert des nations fait face à l’hostilité de certains sites, notamment pornographiques, qui ne vérifient pas l’âge des utilisateurs. La mise en place de la vérification de l’âge se heurte aussi à un public adulte qui craint une surveillance généralisée de l’internet et aux contournements des règles, notamment comme le recours aux VPN.

Dès 2020, la France s’est attaquée à l’épineuse question de l’accès des mineurs à des contenus pornographiques ou violents. Deux lois, celle du 30 juillet 2020 et celle du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique (SREN) se sont focalisées sur les sites pornographiques. Chaque mois, 2,3 millions de mineurs fréquentent ces sites, 12% de l’audience provient des mineurs, selon les chiffres de l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom). La loi SREN impose l’obligation de vérifier l’âge des internautes. Elle a par ailleurs chargé l’Arcom de l’établissement d’un référentiel technique de contrôle de l’âge. Applicable depuis le 11 avril, il procure aux éditeurs des solutions permettant de respecter le « double anonymat », en conformité avec les exigences techniques minimales applicables aux systèmes de vérification de l’âge.

L’Union européenne n’est pas en reste sur le sujet. Dans le cadre de l’article 28 du DSA sur la protection des mineurs en ligne, la Commission a rendu publique, le 14 juillet dernier, ses lignes directrices établissant une liste non exhaustive de mesures proportionnées et appropriées pour protéger les enfants contre les risques en ligne tels que les contenus sexuels ou haineux, les comportements problématiques et addictifs, ainsi que le cyberharcèlement et les pratiques commerciales préjudiciables. Ce socle de référence est destiné à devenir la norme de conformité dans l’ensemble de l’UE. Le dispositif devrait être disponible au printemps 2026, juste avant le déploiement du portefeuille d’identité numérique européen prévu pour fin 2026. D’ici là, cinq États participent à une phase de test : le Danemark, la France, la Grèce, l’Italie et l’Espagne.

Mais en même temps, l’UE peine à faire adopter « Chat Control », le projet de règlement européen « établissant des règles en vue de prévenir et de combattre les abus sexuels sur enfants », baptisé « Child Sexual Abuse Regulation » ou CSAR. Au nom du très louable objectif de protéger les jeunes, ce texte est accusé de conduire à une surveillance de masse du fait qu’il obligerait les messageries et services numériques à scanner les messages, images, vidéos et fichiers échangés sur leurs plateformes et applications, y compris les communications chiffrées de bout en bout sur WhatsApp, Telegram ou Signal. La prochaine réunion des ministres de l’Intérieur de l’Union européenne est désormais programmée pour les 6 et 7 décembre, où ce dossier devrait être à nouveau discuté.

Aux Etats-Unis, pays plutôt rétif à la règlementation, une vingtaine d’États ont déjà adopté des lois pour protéger les enfants en ligne, que ce soit par le contrôle de l’accès aux réseaux sociaux ou aux contenus préjudiciables. Mais elles ont fait l’objet de contestations judiciaires quasi immédiates, ce qui s’est traduit par le blocage par les tribunaux fédéraux de leur application en attendant la position de la Cour suprême. Celle-ci est intervenue le 27 juin 2025, dans l’affaire Free Speech Coalition c. Paxton, dans laquelle elle s’est prononcée en faveur de la loi texane, qui exige la vérification de l’âge des utilisateurs par les sites pour adultes avant d’en autoriser l’accès, en concluant à l’absence d’atteinte à la liberté d’expression des adultes.
Au niveau fédéral, le projet de loi Kids Online Safety Act a de nouveau été présenté le 14 mai 2025. Sur la base d’un « devoir de diligence », il vise à imposer aux sites et aux plateformes en ligne de prendre des mesures pour empêcher que des contenus potentiellement préjudiciables soient proposés aux enfants. Mais ce texte transpartisan est également accusé d’ouvrir la voie à la censure de l’internet et à la surveillance généralisée. De son côté, la Californie qui dispose déjà d’une législation protectrice des enfants sur internet, a adopté le 13 octobre dernier la loi SB 243 qui impose aux plateformes des obligations de vérification de l’âge, des protocoles de lutte contre le suicide et l’automutilation, des avertissements concernant les réseaux sociaux. Elle prévoit aussi des sanctions plus sévères pour ceux qui profitent de deepfakes illégaux, contribuant ainsi à garantir que la sécurité des enfants reste une priorité absolue.

Aussi au Royaume-Uni, l’Online Safety Act britannique du 26 octobre 2023, entré en vigueur le 25 juillet 2025, impose des obligations strictes de vérification d’âge aux plateformes diffusant des contenus pour adultes ou potentiellement dangereux pour les mineurs. Le non-respect de ces obligations peut faire l’objet de sanctions financières allant jusqu’à 18 millions de livres sterling (20,7 millions d’euros environ) ou 10% du chiffre d’affaires mondial de l’entreprise. L’Australie a voté une loi fin 2024 qui interdit les réseaux sociaux aux moins de 16 ans, qui doit s’appliquer d’ici fin 2025. En août dernier, le Brésil a également adopté une législation protectrice. Et des projets de loi ont été présentés en Espagne, en Norvège, au Maroc, en Corée du sud, etc.

Quant à la Chine qui est accusée de nuire aux jeunes du monde via son réseau social TikTok, elle protège fermement les siens. Depuis septembre 2023, les mineurs chinois sont interdits d’internet la nuit entre 22 heures et 6 heures du matin. Les moins de huit ans ne pourront, par exemple, pas y passer plus de 40 minutes par jour. Le temps passé en ligne est contrôlé par un chronomètre installé sur les téléphones portables qui doivent être équipés d’un mode mineur avec un système de reconnaissance faciale pour identifier l’utilisateur et lui donner accès à Internet. Si le principe d’une protection des mineurs sur internet par la vérification de l’âge est largement admis, sa mise en œuvre expose cependant le régulateur à une double gageure, à la fois technique et juridique. Il doit d’une part être capable d’imposer des standards robustes et audités. Il doit d’autre part protéger sans surveiller en promouvant des solutions de vérification réellement respectueuses du principe de double anonymat. C’est ce que l’Union européenne s’emploie à faire dans le cadre du DSA.

par Sylvie Rozenfeld

L'invité du mois

Interview / Chloé Plédel

par Sylvie Rozenfeld

RIA : le casse-tête de la mise en conformité

Le règlement européen sur l’intelligence artificielle est un texte nécessaire et équilibré mais son implémentation reste chaotique, estime Chloé Plédel, responsable des affaires européennes et réglementaires de Hub France IA. Selon elle, la Commission européenne n’avait pas anticipé que ce texte susciterait tant d’interrogations et qu’il nécessiterait d’autant de soutiens et d’explications de sa part. Aujourd’hui, un certain de normes ne sont pas disponibles mais aussi des lignes directrices destinées à clarifier les concepts et les obligations du RIA. Au final, les textes sont loin d’être prêts pour qu’on puisse vraiment se mettre en conformité. Au-delà du coût qui peut être dissuasif pour une PME, Chloé Plédel nous explique en quoi l’obligation de mise en conformité dans le contexte actuel représente un vrai casse-tête générateur d’incertitudes juridiques particulièrement pour les PME pouvant freiner, voire stopper leurs développements de projets d’IA.

Sylvie Rozenfeld : Chloé Plédel, vous êtes responsable des affaires européennes et réglementaires de Hub France IA, une association fédératrice de l’écosystème IA français qui a pour vocation de favoriser le déploiement de l’IA en France. Le décryptage de la règlementation complexe, qui peut être un frein à l’adoption de l’IA, fait partie de vos missions. Or, les exigences réglementaires n’ont pas le même poids pour les grandes entreprises et pour les PME dont la mise en conformité représente un coût qui peut être dissuasif. La Commission européenne dans son analyse d’impact du règlement sur l’intelligence artificielle (RIA) en 2021 avait estimé ce coût à 5% du montant alloué au développement de système d’IA soit une moyenne de 10 000 euros. En 2023, vous avez participé à une étude avec plusieurs de vos partenaires européens travaillant avec des PME et start-ups qui a évalué les coûts entre 160 000 à 330 000 euros pour une entreprise développant un système d’IA. Quels sont ces coûts, pour quels types d’IA comment ont-ils été calculés ?

Chloé Plédel : Cette étude paneuropéenne portant sur une quinzaine de pays a été réalisée avec notre partenaire allemand, Apply AI Germany. On a soumis un questionnaire à nos membres, et à partir de leurs réponses, on a produit des statistiques qui ont conduit à ce chiffre sur les coûts. Il est beaucoup plus important que celui de la Commission et il s’explique par trois facteurs différents. D’abord, les PME n’ont pas vraiment de processus de gestion de la qualité et de la sécurité très développés. Cela nécessite d’investir et de recruter pour remplir toutes ces exigences. Pour bénéficier d’une présomption de conformité, il faut par ailleurs adhérer à des normes pour être conforme d’un point de vue technique. Or, il y a une dizaine de normes concernant le RIA : elles sont payantes et elles impliquent de se faire auditer pour obtenir la certification. S’ajoute enfin à cela l’expertise juridique que ne possède pas forcément une start-up, ce qui nécessite de faire appel à un prestataire externe qui va auditer le système d’IA, qualifier le niveau de risques et les obligations afférentes. Tout cela a un coût.

La Commission n‘a-t-elle pas pris tous ces coûts en compte ?
Elle est partie sur la base d’une entreprise qui possède déjà les ressources pour absorber cette réglementation. L’estimation de 5% que je citais dans l’article est basée sur l’analyse d’impact du RIA. 10 000 € semble dérisoire d’autant que ça couvre à peine le prix des normes.

Votre chiffre correspond-il à celui de la mise en conformité ?
Oui, la mise en conformité pour un système d’IA. Notre chiffre de 330 000 € représente la fourchette haute s’appliquant à un système d’IA à haut risque qui nécessite beaucoup plus de moyens. Il concerne les développeurs de systèmes d’IA, responsables de leur fonctionnement et de leur conformité au RIA. Les déployeurs, donc les utilisateurs, ont d’autres obligations telles que monitorer le bon fonctionnement du système d’IA, vérifier que les journaux (logs) soient tenus et à jour, que l’accès soit réservé à des personnes qualifiées, etc. Ce sont des coûts différents et moins importants que ceux des développeurs qui portent sur l’application des normes techniques et organisationnelles.

Considérez-vous que ces coûts de mise en conformité remettent en cause pour certains le recours à l’IA ?
C’est ce qu’on a constaté quand le règlement est devenu applicable. Certains nous expliquent qu’ils ont des projets de cas d’usage mais ne savent pas s’ils vont continuer les développements car ils sont freinés par les coûts de mise en conformité ou qu’ils doivent retarder l’embauche de développeurs, d’ingénieurs IA, d’experts métiers pour recruter un juriste ou faire appel à un cabinet externe. Une PME peut donc être contrainte de renoncer à innover et préférer rester sur une solution moins risquée car moins coûteuse en conformité. Quant à l’utilisateur, il va subir ce coût de la conformité car il sera répercuté dans le prix de la solution. Il faut aussi faire la distinction entre une grande entreprise et une PME qui veut devenir utilisatrice d’IA. La première a déjà mis en place de nombreux process, elle a l’habitude de gérer des projets, elle dispose d’un service juridique, du personnel et des moyens. In fine, la mise en place d’un tel système constitue un nouveau process, des juristes internes vont établir des modèles de dossiers et de fiches déclaratives. Pour les PME en revanche qui n’ont pas les compétences en interne, elles doivent former un salarié, mettre en place tous les process. Donc le coût est proportionnellement très important pour une PME et donc plus dissuasif. Pour c…

Les doctrines du mois

Contrats informatiques

Etats des lieux sur les réflexes et bonnes pratiques (3ème partie)

Par Olivier PIGNATARI

Après avoir exposé les caractéristiques essentielles, communes aux contrats passés pour l’informatisation des entreprises (1ère partie), ont été abordées les clauses particulièrement sensibles que l’on retrouve dans la plupart d’entre eux (2ème partie), la troisième et dernière partie de cette étude porte sur les spécificités propres à certains d’entre eux.

Données

Scraping : face à un encadrement juridique complexe, quelles bonnes pratiques mettre en œuvre ?

Par Garance MATHIAS et Oriane LAFOUCRIERE

À l’ère de l’intelligence artificielle et de l’hyper-connectivité, le scraping incarne à la fois la promesse d’un accès illimité à l’information et le risque d’une captation silencieuse ce qui, hier encore, relevait de la sphère privée.

RGPD

La notion de consentement éclairé : comment sortir de l’impasse ?

Par Gabriel PRIVAT

La collecte de consentements par des courtiers en données en vue de leur transmission à des partenaires souhaitant effectuer de la prospection commerciale connait de nouveaux remous. Malgré de nombreuses décisions de la Cnil à ce sujet, les acteurs économiques continuent de s’interroger sur ce régime, au point de requérir des éclaircissements de la CJUE.

Données personnelles

IA : nouvelles fiches pratiques de la CNIL

Par Pierre NIEUWYAER

La doctrine de la CNIL en matière d’intelligence artificielle (IA) continue de s’étoffer. Après une première salve de fiches pratiques publiées à partir d’avril 2024 sur des thèmes tels que la détermination du régime juridique, la détermination d’une finalité et d’une base légale, la qualification juridique des acteurs, la réutilisation des données ou l’analyse d’impact, la CNIL a finalisé courant juillet 2025 ses recommandations sur le développement des systèmes d’IA.

Intelligence artificielle

La souveraineté de l’IA pour l’Europe : Utopie ou réalisme stratégique ?

Par Daniel GUINIER

L'intelligence artificielle (IA) occupe désormais une place centrale qui met en lumière l’asymétrie entre la promesse d’un progrès partagé et la réalité d’une concentration technologique et économique. Elle est plus que jamais un enjeu d’indépendance, appelant à une utopie politique qui vise à reprendre le contrôle sur les outils numériques. Elle est ainsi le théâtre d’un réalisme stratégique, où innovation et responsabilité auront à cohabiter. Face à la domination des grandes puissances technologiques, comment la France et l’Europe peuvent-elles construire leur souveraineté en matière d'IA ? Une réponse semble se dessiner, mêlant idéal collectif et lucidité géopolitique, non sans ambiguïtés et inquiétudes…

RGPD

Réseaux sociaux : usage illicite des données d’une salariée par l’employeur

Par Alexandre FIEVEE

Comme chaque mois, Alexandre Fievée sélectionne une décision sur la protection des données personnelles rendue par une autorité de contrôle ou une juridiction étrangère. Ce mois-ci, il se penche sur la question de l’utilisation par un employeur, dans le cadre d’une procédure disciplinaire, de plusieurs messages publiés par une salariée sur ses comptes WhatsApp et Messenger, ainsi que de plusieurs contenus issus de son profil Facebook.

RGPD

IA et données personnelles : l’évolution naturelle du rôle du DPO

Par Camille RACLET

Le DPO, habitué à la « mécanique règlementaire » exigée par le RGPD, apparaît comme un acteur naturel de la mise en conformité au RIA, dont les obligations sont construites de la même façon que celles du RGPD.

Expertises : Droit, technologies & prospectives

Tous les mois, toute l'actualité du numérique... Et tellement plus !

FORMULES D'ABONNEMENT

EXPERTISES N°436
EXPERTISES N°477
EXPERTISES N°467
EXPERTISES N°493
EXPERTISES N°509
EXPERTISES N°483