IA Générative : quel avenir pour les professionnels du droit et du Contract Management ?
Troisième et dernière partie de notre dossier thématique sur les défis liés à l’adoption de l’IA Générative. Retrouvez les deux premiers articles ici : Cas
Deuxième partie de notre dossier thématique sur les défis liés à l’adoption de l’IA Générative. Retrouvez le 1er article ici : Cas d’usages de l’IA Générative pour le Contract Management.
Dans cet article, nous essaierons de comprendre les freins à l’adoption de l’IA Générative pour les missions du Contract Management et les manières de l’approcher.
Selon cette étude menée conjointement par le MIT et le BCG , l’arrivée de l’IA générative aurait le potentiel d’augmenter la productivité du travail jusqu’à 40%.
Toutefois, malgré les avantages qu’offre cette nouvelle technologie, des limites subsistent, ce qui amène même certains analystes comme CSS Insight à annoncer « une douche froide » pour 2024.
À l’occasion de ses prédictions annuelles, CSS Insight a indiqué que « la hype autour de l’IA générative a été juste immense en 2023, à tel point que nous pensons qu’elle est surcotée, et que de nombreux obstacles doivent être surmontés pour l’amener sur le marché ».
Pour rappel, le « hype cycle » popularisé par Gartner représente la courbe de maturité de technologies émergentes qui permet de repérer leur potentiel et rythme de déploiement.
A la phase de « peak of inflated expectations » succède une phase de « désillusion » pendant laquelle l’intérêt faiblit au moins temporairement, avant un regain progressif, souvent plus durable.
L’arrivée de l’IA générative aurait le potentiel d’augmenter la productivité du travail jusqu’à 40%
Source : The state of AI in 2023: Generative AI’s breakout year
Première limite, les questions liées à la sécurité / confidentialité des données. Les entreprises ne sont naturellement pas prêtes à verser leurs contrats dans des solutions d’IA tierces. La sensibilité de ces documents est telle que le niveau de sécurité doit être maximal.
Nombre d’entreprises ont purement et simplement interdit l’usage des outils de GenAI tant que ces risques ne sont pas traités.
D’autres développent leurs propres outils d’IA générative à partir de modèles open source, afin de disposer d’une architecture sécurisée permettant de conserver la propriété des contenus mis à disposition des modèles d’IA.
Les propositions générées par les outils d’IA Générative doivent non seulement être fiables et pertinentes, mais également pouvoir être justifiées pour éviter le risque de contenus faux, trompeurs, ou non sourcés.
Or, à ce jour, il reste très difficile d’obtenir des outils d’IA une explication détaillée de la provenance du contenu et des sources sous-jacentes.
Notons également l’impact des variations de « prompts », parfois d’apparence mineure, qui peuvent amener à des résultats très sensiblement différents selon les tournures employées par l’utilisateur.
C’est ainsi qu’ont émergé un nouveau métier de « Prompt Engineer » ainsi qu’une discipline consistant à réaliser des tests de sensibilité aux variations de prompt, à vérifier la capacité des outils à gérer une large gamme de requêtes, à répondre à des scénarios complexes, en garantissant la neutralité et l’absence de biais.
La cohérence des résultats, l’adaptabilité contextuelle des outils constituent ainsi des éléments clés pour améliorer la fiabilité et la sécurité d’utilisation des modèles de langage (LLM).
La problématique du côut de l’IA Générative commence à émerger compte tenu de la masse de données et de paramètres à traiter par les LLM. Il s’agit en effet d’exécuter des modèles mathématiques complexes pour fournir les réponses aux prompts des utilisateurs, ce qui nécessite des puissances de calcul très importantes, donc coûteuses.
Au-delà des expérimentations et autres proof of concept, le sujet des coûts est très sensible, notamment dans la perspective du passage à l’échelle sur un large panel de cas d’usages, utilisant parfois des LLM différents, ou un volume d’utilisateurs plus important.
A ce titre, l’utilisation de la méthode RAG (Retrieval Augmented Generation) permet notamment de limiter les coûts en utilisant des modèles déjà pré-entrainés avec des volumes de données très importants, ce qui permet d’éviter d’ingérer des quantités massives de données d’apprentissage.
L’Union Européenne a récemment trouvé un accord pour réguler l’utilisation de l’IA en Europe. Celui-ci a pour objectif d’établir un cadre éthique et sûr en mettant l’accent sur la transparence, la sécurité et le respect des droits fondamentaux dans le traitement de certains types de données sensibles (ex : données de santé) ou de cas d’usage à haut risques (ex : reconnaissance faciale) allant jusqu’à l’interdiction de certains cas (ex : social scoring ou la manipulation du comportement humain).
Cet AI Act va aussi forcer les entreprises à :
Les entreprises pourraient ainsi devoir reporter le déploiement de solutions d’intelligence artificielle et investir davantage pour se conformer à la réglementation récemment instaurée.
Pour bien prendre le virage de l’IA générative, notamment pour les métiers du Contract Management, nous préconisons de respecter quelques principes simples.
Intéressé, curieux d’en savoir plus ? N’hésitez pas à nous contacter pour plus d’informations.
En attendant, restez à l’écoute pour notre prochain article où dans lequel nous explorerons en profondeur l’impact de l’IA Générative sur les métiers.
Troisième et dernière partie de notre dossier thématique sur les défis liés à l’adoption de l’IA Générative. Retrouvez les deux premiers articles ici : Cas
L’intelligence artificielle générative (GenAI), symbolisée par l’essor de ChatGPT notamment, suscite autant d’engouement que de questionnements dans de nombreux domaines et le Contract Management n’y
La progression constante de l’IA générative est en train de changer radicalement la manière de tirer de la valeur des secteurs économiques. C’est un changement