Expertises
Droit, technologies & prospectives
interview / Yannick Meneceur
L’IAG pour les juristes, Oui mais avec précautions
Droit, technologies & prospectives
Tous les mois, toute l'actualité du numérique... Et tellement plus !
Nos derniers numéros
Sommaire
Edito
Focus
En bref
L’information rapide sur le monde du numérique
Magazine
L’information légale et jurisprudentielle du numérique
Interview
Doctrines
La licéité des logiciels de triche au regard du droit d’auteur
Le chiffrement n’écarte pas le RGPD
L’accélération technologique et le défi du Shadow Gen AI : l’effet Reine Rouge
Mondes virtuels et protection des marques
La Cnil met en demeure le ministère de l’Intérieur
Accès d’un ex-salarié à ses données : l’employeur peut refuser
L'édito du mois
Engouement
Jamais, semble-t-il, un outil n’avait à ce point, et aussi rapidement, bouleversé le monde du droit. Ces professionnels, prudents par nature, ont très vite été conquis par les « miracles » de l’intelligence artificielle générative. En moins de deux ans seulement, les juristes en cabinet, en étude ou en entreprise ont amorcé une transformation majeure de leurs pratiques. A la mi-2024, Lefebvre Sarrut et l’European Legal Technology Association (ELTA) ont produit la deuxième édition de leur étude Legal Professionals & Generative AI Global Survey qui révèle une utilisation de l’IA générative en pleine expansion dans les professions juridiques, malgré les incertitudes liées à l’impact sur les pratiques et les métiers. Sur 463 répondants, répartis dans 36 pays européens, près de 80% des répondants l’utilisent de manière hebdomadaire, et près de la moitié quotidiennement. Pour 90% d’entre eux, l’IA générative soutient efficacement leurs activités professionnelles ; ils étaient 66% en 2023.
Cet enthousiasme se lit également dans le rapport de la mission d’information de la commission des lois du Sénat sur le thème « Intelligence artificielle et professions du droit », rendu public le 18 décembre dernier. C’est l’aboutissement de six mois d’enquête au travers de 98 auditions et de 52 contributions écrites et de débats menés par des sénateurs juristes : Muriel Jourda, la présidente de la commission des lois, est avocate, et les deux rapporteurs Christophe-André Frassa et Marie-Pierre de La Gontrie, sont respectivement consultant juridique et avocate. Le titre du rapport donne le ton : « Agir plutôt que subir ». C’est l’attitude adoptée par le monde du droit qui, globalement, manifeste une forte adhésion à l’IA générative, convaincu qu’elle offre d’immenses opportunités professionnelles et de réels bénéfices en termes de productivité. L’adoption rapide de ces outils est du reste portée par un éco-système de legal techs très dynamique qui bénéficie d’une politique très avantageuse de mise à disposition en open data des décisions de justice. En revanche, les professions juridictionnelles restent à la traîne des autres métiers du droit, du fait du retard technologique de l’institution que les contraintes budgétaires ne vont pas facilement permettre de réduire.
Curieusement, cette disruption rencontre très peu d’opposition. Certes, des réserves sont émises sur la confidentialité, sur la fiabilité des réponses ou la baisse de la qualité des productions mais rien qui ne remette en question l’installation durable de l’IA générative et son omniprésence. Yannick Meneceur, un « geek » magistrat, pratiquant assidu de cet outil, dont on peut lire l’interview dans ce numéro, ose une critique constructive. Selon lui, cet engouement ne doit pas empêcher de se poser les questions essentielles des besoins pour quels usages, de la dépendance, de la réversibilité, de l’influence sur les pratiques et sur le droit, de la transmission des savoirs, de la perte de savoir-faire, etc. L’emballement risque de se muer en déception : commençons par démythifier cette technologie, si révolutionnaire soit-elle, et anticipons les risques.
Le focus du mois
Un difficile équilibre à trouver
Dissensus sur la typologie des informations et le modèle de résumé à publier par les fournisseurs de modèles d’IA sur les données d’entraînement protégées par un droit de propriété intellectuelle.
Alors que le Bureau européen de l’IA doit rendre public prochainement son projet de modèle de résumé du contenu utilisé pour entraîner les modèles d’IA à usage général, la France n’a pas encore fixé sa doctrine. Plusieurs rapports représentants des intérêts opposés ont été publiés afin de nourrir la position française qui va être portée à Bruxelles. Le CSPLA, d’un côté, milite pour un résumé « complet en termes de contenu », sans révéler les techniques utilisées alors que, d’un autre côté, les représentants des développeurs de système d’IA font valoir que les données utilisées sont sources de valeurs et les divulguer créeraient une distorsion de concurrence avec les modèles hors de l’UE. La France se trouve donc dans une situation schizophrénique entre la défense du secteur de la création et le soutien à une industrie de l’IA française qui a besoin de données de qualités. Reste désormais à concilier des intérêts qui s’opposent.
Les modèles d’apprentissage profond nécessitent de vastes quantités de données pour leur entraînement. Pour ce faire, ils recourent fréquemment à la technique du scraping sur internet afin d’accéder aux informations librement accessibles en ligne. Or, c’est cette pratique qui est dénoncée par les ayants droit et créateurs d’œuvres de l’esprit.
La directive européenne du 17 avril 2019 avait autorisé la fouille de texte (datamining), à des fins de recherche scientifique ou à des contenus dont l’accès est licite. Dans ce dernier cas, la directive avait prévu un droit d’opposition (opt-out) pour les ayants droit. Avec l’explosion de l’IA générative, les ayants droit ont été nombreux à mettre en œuvre cette faculté. Mais force est de constater le peu d’effectivité de l’opt-out. Et, en l’absence d’un principe de transparence des sources, le droit d’opposition reste théorique. Pour obtenir la rémunération ou l’indemnisation des titulaires de droit sur les œuvres ayant servi de sources aux modèles d’IA en cas d’atteinte au droit d’auteur, encore faut-il pouvoir rapporter la preuve de leur utilisation. Mais comment identifier les œuvres qui ont servi de données d’entraînement ? D’où la question de la transparence de la part des développeurs de modèles de fondation qui a fait l’objet d’un débat houleux lors de l’adoption du règlement européen relatif à l’intelligence artificielle (RIA).
L’Europe a fini par créer un régime de transparence inédit dans le monde pour garantir l’effectivité du droit d’opposition, en offrant aux titulaires de droits une plus grande visibilité sur l’utilisation de leurs œuvres à des fins d’apprentissage de l’IA. L’article 53 du RIA impose aux fournisseurs de modèles de mettre en place une politique visant à respecter le droit d’auteur et les droits voisins mais aussi à rédiger « un résumé suffisamment détaillé du contenu utilisé pour entraîner le modèle d’IA à usage général » qui doit être mis « à la disposition du public ».
Le 18 novembre dernier, la Commission européenne a publié un projet de code de pratiques pour les modèles d’intelligence artificielle généraliste (GPAI) élaboré par le Bureau de l’IA qui impose aux fournisseurs de GPAI de documenter et de rendre accessibles les informations relatives aux données utilisées pour l’entraînement, le test et la validation de leurs modèles. Le code précise que cette transparence doit inclure la nature des données utilisées (textes, images, vidéos, autres contenus protégés), les sources des données, y compris leur provenance et les modalités d’acquisition.
Une question demeure néanmoins
en suspens : celle de savoir si les fournisseurs doivent divulguer chaque œuvre utilisée individuellement. Il revient au Bureau européen de l’intelligence artificielle d’élaborer la typologie des informations et le modèle de résumé à publier par les fournisseurs de modèles d’IA. Et c’est là où les choses se compliquent. Pour permettre aux ayants droit de disposer d’informations suffisantes pour exercer leur droit d’opposition, le règlement prévoit que ces exigences soient équilibrées, à la fois techniquement faisables, à la portée des fournisseurs de modèles d’IA à usage général sans leur faire supporter une charge excessive, compatibles avec la protection des secrets d’affaires et des informations commerciales confidentielles.
Ce cadre posé, chacun essaie de faire valoir ses intérêts. En avril dernier, le CSPLA avait confié une « mission flash » à Alexandra Bensamoun, professeur des universités, afin de « préciser la portée des dispositions de l’article 53, 1, d, et de proposer un modèle de résumé qui nourrira les positions de la France au niveau européen ». Le rapport remis le 9 décembre 2024 recommande une approche par type de contenus. Pour les données protégées, seraient considérées comme essentielles les URLs des sites internet dans lesquels les données ont été récupérées ainsi que la date de ces opérations de récupération. Les bases d’entrainements devraient aussi être suffisamment documentées (notamment sur les identifiants uniques) et le résumé devrait contenir des informations pratiques telles que le contact de référence ou l’existence d’accords commerciaux le cas échéant. Ce résumé public doit permettre d’identifier l’utilisation potentielle d’une œuvre ou d’un contenu protégé, mais pas de détailler comment ce contenu a été utilisé ni les données protégées par le secret des affaires. « Autrement dit, la liste précise d’ingrédients peut être rendue publique, mais pas la recette », relève le CSPLA.
France Digitale, qui représente les start-up, estime de son côté que « le législateur n’a pas souhaité imposer aux fournisseurs de modèles d’IA à usage général de révéler de manière exhaustive chacune de leurs sources ».
L'invité du mois
Interview / Yannick Meneceur
L’IAG pour les juristes Oui mais avec précautions
Les juristes ont été particulièrement rapides à adopter l’intelligence artificielle générative dans leurs pratiques. Le droit, matière reposant sur le langage, s’y prête particulièrement. Yannick Meneceur, magistrat qui a développé durant sa carrière une expertise liant le droit, l’informatique et la gestion administrative dans le secteur public, vient de publier un ouvrage intitulé « IA générative et professionnels du droit », chez LexisNexis. Dans cette interview, il nous livre une réflexion sur son usage par les juristes, avec une vision éclairée mais néanmoins critique. Selon lui, le recours à l’IAG, technologie dont l’impact sur le droit et ses pratiques est sans précédent, ne peut se faire sans une analyse des besoins et des risques. Une interview qui fait particulièrement écho au rapport d’information de la commission des lois du Sénat intitulé : " L'intelligence artificielle générative et les métiers du droit", rendu publique le 18 novembre dernier.
Sylvie Rozenfeld : La 2ème édition de l’étude Legal Professionals & Generative AI Global Survey qui vient de sortir révèle que l’utilisation de l’IA générative est en pleine expansion au sein des professions juridiques, malgré les incertitudes relatives à l’impact sur les pratiques et les métiers. Face à ce phénomène, la commission des lois du Sénat a, de son côté, lancé une mission d’information intitulée : « Intelligence artificielle et professions du droit » qui s’est achevé en novembre par la 89ème et dernière audition, celle de Clara Chappaz, ex-secrétaire d’Etat en charge de l’IA. La mission s’est concentrée sur les risques du recours aux systèmes d’intelligence artificielle générative (SIAG) pour les professionnels du droit, les mutations des conditions d’exercice de ces professions et les défis éthiques et déontologiques.
Vous êtes magistrat, inspecteur de la justice, vous avez travaillé 10 ans au Conseil de l’Europe, notamment sur les questions de l’IA et vous êtes auteur d’un précédent ouvrage « l’intelligence artificielle en procès ». Vous venez justement de publier un livre intitulé : « IA générative et professionnels du droit », qui n’est pas un mode d’emploi des SIAG à destination des juristes, même s’il comporte des conseils pratiques, mais un livre de vulgarisation au sens noble du terme et de réflexion sur les enjeux du recours à l’IA pour le secteur du droit. Vous êtes un juriste « geek », ce qui ne vous empêche pas d’être critique et de vous interroger sur la généralisation si rapide de cette technologie.
Les professionnels du droit sont de plus en plus nombreux à adopter l’IA générative dans leur pratique et le secteur des legaltech est particulièrement dynamique. Est-ce que, comme le disait Muriel Jourda, présidente de la commission des lois du Sénat et avocate, le droit, matière basée sur le langage, s’y prête particulièrement ?
Yannick Meneceur : À peu près toutes les organisations, publiques ou privées, se sont assez vite saisies du sujet de l’emploi des larges modèles de langage pour chercher à industrialiser la production de divers types d’écrits, qui paraissent tout à fait convaincants à première vue. Le domaine juridique n’a pas échappé à cet enthousiasme, avec une prolifération de solutions, essentiellement commerciales, promettant de transformer durablement les métiers du droit. Mais être convaincant n’est pas être juste : si le langage produit ressemble très fortement à du langage juridique, une IA générative n’est pas un moteur de connaissance, ni un moteur de recherche ! Même si on lui adjoint une base de données structurée pour servir de « tuteur » (au moyen d’une approche RAG pour retrieval augmented generation), ces IA produisent ce que j’appelle une « langue des probables », en cherchant essentiellement à enchaîner de manière cohérente des mots par une approche mathématique, statistique et probabiliste. Tous ceux qui ont testé ces IA génératives se sont rendu compte de « l’inventivité » de ces outils. Je parle d’inventivité pour ne pas utiliser le terme que je trouve impropre « d’hallucination » car il anthropomorphise trop cette technologie.
Pour le reformuler, nous avons affaire à des algorithmes permettant une production industrialisée de contenus, dont l’objectif n’est pas de produire quelque chose de vrai ou de juste mais seulement d’espérer que le modèle de langage a réussi à capturer, tel un chalutier drainant le fond, le raisonnement sous-jacent en même temps que sa formalisation. Tout cela n’est pas nouveau, puisque les performances des réseaux de neurones pour saisir des motifs récurrents dans de grands jeux de données ont permis des performances tout à fait saisissantes : jouer au jeu de Go par exemple ou reconnaître une image. Mais, pour les larges modèles de langage, cette propension à générer coûte que coûte du contenu n’est pas un « bug », mais bien une fonctionnalité. Cela ne veut toutefois pas dire que nous n’allons pouvoir ne rien en faire.
Pour quels usages ?
Je pense que certains opérateurs se sont trop vite concentrés sur des cas d’usage trop simplistes ou leur paraissant trop évidents : moins que l’emploi brut de ces IA génératives pour rédiger des textes à la place des juristes, il faut plutôt parvenir à se projeter sur l’utilité de cette nouvelle « brique » dans des systèmes hybrides. Utiliser une couche conversationnelle basée sur un large modèle de langage avec un (vrai) moteur de recherche juridique par exemple, automatiser l’interaction entre plusieurs applications métiers avec un large modèle d’action (LAM, large action model), améliorer l’interaction avec un arbre de décision pour choisir des paragraphes prérédigés de rédaction…
Les doctrines du mois
La licéité des logiciels de triche au regard du droit d’auteur
Un logiciel qui modifie le contenu des variables d’un jeu vidéo sans qu’il y ait reproduction ou modification du code source ou du code objet ne porte pas atteinte au droit d’auteur sur sa composante logicielle, a conclu la Cour de justice de l’Union européenne dans un arrêt du 17 octobre 2024.
Le chiffrement n’écarte pas le RGPD
Pour la Cnil, le chiffrement d’une donnée personnelle n’écarte pas l’application du RGPD. À l’inverse, l’Anssi considère qu’un algorithme réputé fiable et sûr convertit une information « classifiée » en une donnée anodine. À l’heure où les gendarmes de la sécurité de l’information s’alignent sur bien des points, pourquoi la spécialiste des données personnelles ne s’est-elle pas ralliée à la position du garant du secret de la défense nationale ? Réelle différence ou refus politique de tenir compte d’un adverbe, dans la définition de l’anonymat par le RGPD ?
L’accélération technologique et le défi du Shadow Gen AI : l’effet Reine Rouge
La transformation digitale impose une perpétuelle adaptation des compétences au niveau individuel et organisationnel, provoquant une course effrénée des directions informatiques et juridiques pour maîtriser l’utilisation non autorisée des systèmes d’intelligence artificielle par les salariés. Confrontées au Shadow Gen AI, les organisations doivent gérer les risques et garantir le contrôle et la sécurité sans freiner les initiatives de leurs salariés. Cette dynamique illustre parfaitement le paradoxe de la Reine rouge. "Ici, vous voyez, il faut courir le plus vite possible pour rester au même endroit. Si vous voulez aller ailleurs, il vous faut courir encore deux fois plus vite ! » « De l’autre côté du miroir », Lewis Carroll
Mondes virtuels et protection des marques
Après l’effervescence autour du métavers ces trois dernières années, l’Institut National de la Propriété Industrielle (« INPI ») et l’Office de l’Union européenne pour la Propriété Intellectuelle (« EUIPO ») précisent progressivement leur position concernant la protection des marques au sein d’univers virtuels et plus présicémment la question de savoir si un bien ou un service du monde réel pourrait être considéré comme identique ou similaire à son équivalent virtuel et générer un risque de confusion dans l’esprit du public.
La Cnil met en demeure le ministère de l’Intérieur
Le 15 novembre 2024, la Commission Nationale de l'Informatique et des Libertés (Cnil) a mis en demeure le ministère de l’Intérieur concernant l'utilisation de logiciels d'analyse vidéo, notamment ceux de la société BriefCam1.
Accès d’un ex-salarié à ses données : l’employeur peut refuser
Comme chaque mois, Alexandre Fievée tente d’apporter des réponses aux questions que tout le monde se pose en matière de protection des données personnelles, en s’appuyant sur les décisions rendues par les différentes autorités de contrôle nationales au niveau européen et les juridictions européennes. Ce mois-ci, il se penche sur la question de savoir si un employeur peut opposer le respect des droits et libertés d’autrui pour ne pas faire droit à une demande de droit d’accès émanant d’un ancien salarié contre lequel il est en litige.