Expertises
Droit, technologies & prospectives
interview / Denis Berthault
La fin de l'open data heureux

Droit, technologies & prospectives
Tous les mois, toute l'actualité du numérique... Et tellement plus !
Nos derniers numéros

































































N°457 – mai 2020
N°456 – avril 2020
N°455 – mars 2020
N°454 – février 2020
N°452 – décembre 2019
N°451 – novembre 2019
N°450 – octobre 2019
N°449 – septembre 2019
N°448 – juillet 2019

















Sommaire
Edito
Focus
En bref
L’information rapide sur le monde du numérique
Magazine
L’information légale et jurisprudentielle du numérique
Interview
Doctrines
Repenser le pilotage des projets IT
RGPD : un droit de résilience. L’exemple de l’Iran face aux interventions militaires
Interdiction aux moins de 15 ans : entre contraintes juridiques et difficultés pratiques
La qualification juridique d’Airbnb à l’épreuve de la sous-location illicite
Documentation technique et marquage CE : un impératif de transparence et de sécurité
L’exploitation des contenus culturels par l’IA, une nouvelle présomption à la française
Démarcheurs : « Vous n’êtes pas les bienvenus ! »
Première décision sur le lieu de conclusion d’un contrat signé électroniquement
L'édito du mois
Qui décide ?
Au XIXème siècle, le stratège prussien Carl van Clausewitz dans son traité De la guerre, avait écrit qu’il fallait rejeter sans conditions une « méthode qui fournirait des plans de guerre et de campagne fixes et comme sortant tout prêts d’une machine ». Aujourd’hui, « cette méthode » est au cœur de la guerre moderne qui sévit en Ukraine ou en Iran. Dans ce contexte de guerre algorithmique, l’humain détient-il encore le pouvoir réel de décision ?
Le processus qui aboutit à la décision de lancer un missile nécessite du temps. Cela suppose de localiser la cible, d’évaluer son importance, d’identifier son environnement pour éviter les dommages collatéraux, de déterminer le type d’arme pour aboutir à l’ordre de frapper. Les systèmes d’IA générative permettent de réduire considérablement le délai entre la collecte de données, leur analyse, la décision et l’action et ainsi de multiplier les cibles. L’IA change ainsi radicalement le rythme de la guerre. Comme l’indique Laure de Toucy-Rochegonde, directrice du Centre géopolitique des technologies de l’IFRI, dans une tribune publiée dans Le Monde, « la phase de vérification humaine des cibles se révèle extrêmement courte, parfois de l’ordre d’une vingtaine de secondes. Une telle pression temporelle incite à seulement entériner les propositions de la machine ».
Selon le droit de la guerre, plus précisément le droit international humanitaire (DIH), l’humain doit rester au cœur de toute décision. Or, dans le contexte d’une recommandation de l’IA, cette validation s’apparente à un simple droit de veto. Pourtant, ces systèmes d’IA sont des boîtes noires qui ne permettent pas de savoir ce qui a déterminé leur position. Par ailleurs, les militaires comme tout être humain sont sujets au biais de confirmation qui incite à accorder une confiance à la recommandation algorithmique.
La délégation de la décision reste cependant problématique dans un contexte aussi incertain qu’un théâtre de guerre. De façon générale, les LLM apprennent à partir de données passées, repèrent des corrélations, calculent des probabilités. Si leur puissance est incomparable, ils sont démunis face à l’imprévu puisqu’ils se basent sur des données anciennes. Le bombardement « par erreur » d’une école à Minab dans le sud de l’Iran, près du détroit d’Ormuz, par les Américains le 28 février dernier, qui a fait 168 victimes, pourrait en être une illustration. La faute ne serait pas humaine mais le fait de l’IA qui aurait commis une erreur de cible, hypothèse non confirmée par les autorités américaines, mais fortement probable d’après les experts. L’erreur de ciblage pourrait être due à une mauvaise interprétation des informations spatiales. L’école qui était située à l’origine dans le périmètre militaire avait été déplacée voici dix ans. Cela démontre une fois de plus les faiblesses de l’IA générative en matière de cognition visuelle, leur incapacité à traduire les caractéristiques visuelles détaillées en mots et leur carence en matière de raisonnement temporel fondé sur des renseignements quand les anciennes informations sont surreprésentées sur l’ensemble de données d’entraînement de l’IA.
La question de l’imputabilité des fautes commises se pose : qui doit être tenu responsable ? Les concepteurs des LLM, les opérateurs ou les supérieurs hiérarchiques. ? Certes, le recours aux LLM pose un problème technique du fait de leur manque de fiabilité. Mais une décision militaire ne se réduit pas à un calcul d’efficacité. C’est un acte de souveraineté qui engage la responsabilité d’un État. Le débat ne porte pas sur l’utilisation de l’IA, mais sur la garantie d’un jugement humain significatif des décisions de ciblage et pas seulement d’une supervision humaine. Dans ces conditions, faut-il créer des instruments juridiques spécifiques pour encadrer le recours à l’IA et aux systèmes autonomes, ou se contenter d’appliquer les règles existantes ?
« Il y a deux manières de combattre, l’une avec les lois, l’autre avec la force. La première est propre aux hommes, l’autre nous est commune avec les bêtes », écrivait Nicolas Machiavel dans Le Prince, publié en 1532. Une réflexion qui résonne particulièrement aujourd’hui où le droit international est ignoré. Dans ces conditions, appeler à encadrer ces nouvelles pratiques apparaît peu audible.
Le focus du mois
L’Europe s’attaque aux black patterns
L’Union européenne prépare le futur règlement sur l’équité numérique le Digital Fairness Act (DFA), un nouveau texte destiné à remédier aux carences du cadre réglementaire actuel qui a du mal à faire face au développement de pratiques numériques manipulatoires et addictives.

Avec le projet du futur règlement sur l’équité numérique (Digital Fairness Act ou DFA), la Commission européenne tire les leçons de l’échec relatif de la réglementation actuelle sur le droit de la consommation qui repose sur le modèle « informer et consentir » (notice and consent) et la croyance en la rationalité du consommateur dans ses prises de décision. Elle s’oriente désormais vers une régulation fondée sur le « Fairness by Design » (l’équité dès la conception) dans laquelle il reviendrait à l’entreprise de garantir que l’architecture de ses choix respecte l’autonomie de l’individu et non à l’utilisateur de se protéger contre les manipulations. La proposition de texte, en cours d’élaboration, devrait être présentée à la fin de l’année.
Le 19 novembre dernier, la Commission européenne a adopté son Agenda 2030 qui fixe un cadre stratégique pour la politique de l’UE en matière de protection des consommateurs notamment contre les pratiques commerciales potentiellement abusives qui se multiplient.
Sont dans le collimateur de la Commission les pratiques BtoC dont le modèle économique repose sur l’asymétrie d’information et la manipulation comportementale, incluant la création de contenus addictifs, les dark patterns, la personnalisation abusive et le marketing d’influence. Selon l’étude comportementale de la Commission publiée en octobre 2024, ces méthodes abusives coûteraient aux consommateurs européens au moins 7,9 milliards d’euros par an. Elles sont de plus en plus pratiquées par des entreprises de toutes tailles et pas seulement par les grandes plateformes. D’après une enquête de clients mystères, 97 % des sites web et applications les plus populaires auprès des consommateurs européens ont recours à au moins une pratique trompeuse ; les plus répandues étant la dissimulation d’informations ou la fausse hiérarchie, la présélection, le harcèlement, la difficulté à annuler un achat et l’inscription forcée.
L’Union européenne dispose pourtant d’un cadre juridique protecteur avec trois directives : la directive sur les pratiques commerciales déloyales, la directive relative aux droits des consommateurs et la directive concernant les clauses abusives, sans oublier le DSA, le DMA, le RGPD, etc. Force est de constater que l’objectif de garantir aux consommateurs un niveau élevé de protection et un meilleur fonctionnement du marché intérieur n’est pas complètement atteint. L’étude de 2024 montre que la protection des consommateurs au sein de l’UE est compromise par une application insuffisante du droit, une insécurité juridique, un risque croissant de fragmentation réglementaire entre les approches nationales des États membres et le manque d’incitations pour les professionnels à viser le plus haut niveau de protection des consommateurs.
Le projet de la Commission ne consiste cependant pas en un « DSA bis » ni à ajouter une nouvelle couche réglementaire, mais à combler les lacunes clairement identifiées en instaurant un instrument horizontal, centré sur l’expérience du consommateur, l’équité de l’interface et la possibilité d’exercer concrètement ses droits qui s’imposeront à toutes les entreprises et pas seulement aux très grandes plateformes en ligne (Vlop). Il s’agit de passer du modèle basé sur l’obligation d’information à celui de l’exercice concret des droits. L’information ne suffit plus lorsqu’elle intervient au moment où la décision est déjà influencée par des mécanismes d’urgence, de rareté artificielle, de comparaison biaisée ou de friction sélective. Un droit qui ne modifie pas l’interface ne modifie pas le pouvoir, constate la Commission.
Pour cette nouvelle orientation, la Commission opterait pour un règlement afin d’assurer une application uniforme de ces règles. Il reste désormais à connaître l’approche qui va être proposée : interdire certaines pratiques inéquitables ou imposer des obligations de démonstration, de transparence et d’évaluation, permettant ainsi la persistance de certaines pratiques sous certaines conditions ? L’interdiction apporte de la clarté mais nécessite une définition précise des manquements pour éviter tout contournement. Quant à l’obligation conditionnelle, elle est plus souple mais offre des zones grises à des acteurs peu scrupuleux.
La protection des mineurs constitue par ailleurs un enjeu majeur auquel le Conseil prête une attention particulière. Le texte devra aussi prendre en compte l’essor des agents virtuels qui vont transformer en profondeur le commerce électronique. S’agissant du respect des nouvelles règles, le Conseil s’est d’ores et déjà exprimé sur la nécessité d’une centralisation des pouvoirs d’enquête et de répression au niveau européen dans certains cas. Il part en effet du constat que les infractions sont transfrontalières, les pratiques sont industrialisées et que la fragmentation des capacités nationales facilite une certaine impunité, en particulier celle des grandes plateformes.
Entre juillet et octobre derniers, la Commission ava it organisé une consultation publique qui avait recueilli 3 341 réponses. 72 % des répondants se sont prononcés en faveur de l’adoption de nouvelles règles européennes contraignantes contre ces pratiques et autres « dark patterns » qui servent à orienter voire manipuler le comportement des utilisateurs. Sans surprise, les acteurs dominants invoquent, quant à eux, la saturation réglementaire affirmant que les textes sont suffisants, les coûts de mise en conformité, les risques de fragmentation et les freins à l’innovation.
Comme nous l’a expliqué Dorian Beauchêne (voir interview n° 521, p.11), l’économie comportementale a permis de mesurer l’impact des stratégies commerciales basées sur les biais cognitifs pour influencer les décisions des consommateurs, relativisant ainsi le dogme du consentement. La Commission en a tiré les leçons. Reste désormais à traduire juridiquement ce changement de cap. Un défi de taille pour Bruxelles qui doit proposer des mesures à même d’établir une équité numérique robuste, opérationnelle, appliquée et contrôlée par des capacités d’enquête, de coopération et de sanction. Un projet soutenu par le Conseil et le Parlement européens mais qui fait déjà l’objet d’un intense lobbying des acteurs de l’économie numérique.
L'invité du mois
Interview / Denis Berthault
La fin de l’open data heureux
Les données sont des biens numériques stratégiques qu'elles soient publiques ou privées, selon Denis Berthault. Elles ne doivent donc pas circuler n’importe comment car c'est une question de souveraineté numérique. Or, il n'y aura pas de souveraineté numérique sans souveraineté sur les données. Le contexte géopolitique actuel nous oblige, selon lui, à revoir, tant au niveau européen que français, la politique de circulation des données publiques. En conséquence, il estime qu’il faut repenser de façon stratégique la diffusion des données publiques et définir une politique basée sur leur sensibilité.

Sylvie Rozenfeld : Vous avez toujours travaillé dans le monde de la donnée publique, tant comme concessionnaire de service public (Legifrance) que comme réutilisateur de données juridiques et vous défendez, entre autres, l’importance économique de la donnée en tant que vice-président du gf2i. La data, « c’est mon dada » écrivez-vous sur votre compte LinkedIn. Vous aviez été interviewé en mai 2015 (Exp. n°402), juste avant l’adoption de la loi Lemaire, soit aux prémices de la libération des données publiques. Dix ans plus tard, la France se classe en première position du classement de l’Open Data Maturity Index de la Commission européenne, pour la cinquième année consécutive. C’est l’occasion de faire le bilan de l’open data. L’obligation de mise à disposition gratuite de leurs données par les personnes publiques est loin d’être totalement respectée, surtout par les collectivités territoriales. Ne pensez-vous pas que cette pôle position de l’open data français est en trompe-l’œil ?
Denis Berthault : Il faut distinguer le nombre et la qualité. Il est certain qu’en nombre, nous sommes en tête et je crois qu’en qualité, sur certains domaines, nous le sommes aussi car nous avons de grands fournisseurs publics de données au niveau national qui couvrent l’ensemble du territoire tels que l’INPI, l’Insee, la Dila, l’IGN ou Météo France. Ce qui n’est pas forcément le cas dans d’autres pays de l’Union européenne, vu leur organisation administrative et le pouvoir des régions. En France, il y a aussi de nombreuses initiatives des régions, des départements ou de grandes villes. Mais outre qu’elles ne concernent qu’environ 30% des collectivités locales (1), qu’on n’en trouve qu’environ la moitié sur data.gouv, elles ont pour principale faiblesse l’absence de formats communs par type de données. Aussi, ces données n’étant pas interopérables, on ne peut pas les consolider au niveau national. J’en profite pour regretter l’absence d’initiative des ministères et des administrations centrales pour concevoir et recommander des normes ou des formats aux acteurs locaux.
Mais, pour répondre à votre question, nous pouvons être fiers de tout ce qui a été accompli sans dissimuler qu’il reste beaucoup à faire pour accélérer le partage et la circulation des données dans le contexte numérique posé par l’explosion de l’IA.
Au moment de l’élaboration de la loi, n’a-t-on pas sous-estimé les difficultés techniques, organisationnelles, humaines, en imposant une ouverture totale ?
Oui, sans aucun doute. D’abord, la loi Lemaire n’avait pas fait l’objet d’une étude d’impact. Puis, on s’est aperçu que les résultats n’étaient pas ceux attendus par le législateur car, malgré des feuilles de routes ministérielles, une bonne volonté constante des acteurs publics et de nombreuses initiatives nationales ou locales, l’ouverture des données restait, même pour les grandes organisations, source de difficultés structurelles : quelles données ouvrir, quelle organisation mettre en place, avec quels outils, quelles garanties pour le réutilisateur ? Surtout, la loi et les textes d’application partaient, et partent toujours, de deux postulats que, pour ma part, je trouve erronés. D’une part, le grand public s’intéresserait aux données publiques, alors que je crois qu’il se n’y intéresse qu’une fois les données encapsulées dans des produits ou services bâtis par des acteurs publics… ou privés. D’autre part, une même donnée pourrait répondre à la fois aux besoins du grand public et des professionnels. Or, je pense que toutes les données ne se valent pas et qu’en fonction des métiers dans lesquels elle interviennent, et de leur potentiel informationnel et de révélation, il est indispensable de différencier leurs modes de diffusion.
On a donc confié au député Eric Bothorel, la mission de procéder à une étude d’impact a posteriori. Son rapport, qu’il a rendu fin 2020, ne remet pas en cause les postulats de la loi Lemaire (2). Il formule une vingtaine de recommandations qui vont toutes dans le bon sens comme renforcer le pilotage au niveau du premier ministre, renforcer les moyens humains et financiers, créer un label qualitatif, améliorer le partage des données entre acteurs publics, prévoir un accès sécurisé aux données sensibles, sans oublier la nécessité pour les acteurs publics d’accéder à des données issues du secteur privé lorsque celles-ci sont considérées d’intérêt général.
L’ouverture des données publiques a été motivée par une finalité économique et une finalité de transparence politique. Est-ce que l’objectif de la valorisation économique des données publiques a été atteint ? Y a-t-…
Les doctrines du mois
Repenser le pilotage des projets IT
L’hybridation de l’approche LegalOps et du Contract Management permet de transformer la fonction juridique en une fonction de direction opérationnelle et d’accompagnement des projets, capable de sécuriser les projets numériques et de contribuer directement à la création de valeur au sein de l’entreprise.
RGPD : un droit de résilience. L’exemple de l’Iran face aux interventions militaires
Les règles européennes de protection des données personnelles lorsque l’objet du traitement, ou le destinataire du transfert, se situe dans un État menaçant de s’effondrer en raison d’un conflit armé, comme l’Iran.
Interdiction aux moins de 15 ans : entre contraintes juridiques et difficultés pratiques
La proposition de loi adoptée par l’Assemblée nationale qui vise à interdire l’accès aux réseaux sociaux aux mineurs de moins de quinze ans soulève non seulement des interrogations juridiques mais aussi questionne sur la mise en œuvre technique du texte et son efficacité.
La qualification juridique d’Airbnb à l’épreuve de la sous-location illicite
La Cour de cassation, par deux arrêts du 7 janvier 2026, écarte la qualification d’hébergeur pour la plateforme Airbnb, jugeant que son rôle actif dans la mise en relation des utilisateurs engage sa responsabilité civile en cas de sous-location illicite.
Documentation technique et marquage CE : un impératif de transparence et de sécurité
Chaque mois, le cabinet Mathias Avocats décrypte l’actualité juridique de l’intelligence artificielle. Dans ce numéro, il se penche sur les exigences de documentation technique et de marquage CE que doivent remplir les fournisseurs de systèmes d’IA à haut risque.
L’exploitation des contenus culturels par l’IA, une nouvelle présomption à la française
La proposition de loi présentée au Sénat le 12 décembre 2025 a pour ambition d’insérer dans le code de la propriété intellectuelle une présomption d’exploitation des contenus culturels par les fournisseurs d’IA. Le législateur souhaite, ce faisant, sauvegarder le « socle de l’exception culturelle française ».
Démarcheurs : « Vous n’êtes pas les bienvenus ! »
Comme chaque mois, Alexandre Fievée sélectionne une décision sur la protection des données personnelles rendue par une autorité de contrôle ou une juridiction étrangère. Ce mois-ci, il se penche sur la question de savoir si la mention selon laquelle une personne manifeste sa volonté de ne pas être contactée fait obstacle à toute forme de sollicitation par un professionnel.
Première décision sur le lieu de conclusion d’un contrat signé électroniquement
La Cour d’Appel de Pau vient de rendre une décision inédite sur le lieu de conclusion d’un contrat signé électroniquement, prenant à rebours la disposition de droit commun en matière de contrats conclu à distance et ouvrant un intéressant débat sur la nécessité du fameux « signé à…. » qui clôturait traditionnellement les contrats.
Tous les mois, toute l'actualité du numérique... Et tellement plus !
FORMULES D'ABONNEMENT
