Limites et freins à l’adoption de l’IA Générative appliquée au Contract Management

Contract Management

Deuxième partie de notre dossier thématique sur les défis liés à l’adoption de l’IA Générative. Retrouvez le 1er article ici : Cas d’usages de l’IA Générative pour le Contract Management.

Dans cet article, nous essaierons de comprendre les freins à l’adoption de l’IA Générative pour les missions du Contract Management et les manières de l’approcher.

ia generative contract management

IA Générative : voyons au delà l'impact positif sur la productivité

Selon cette étude menée conjointement par le MIT et le BCG , l’arrivée de l’IA générative aurait le potentiel d’augmenter la productivité du travail jusqu’à 40%.
Toutefois, malgré les avantages qu’offre cette nouvelle technologie, des limites subsistent, ce qui amène même certains analystes comme CSS Insight à annoncer « une douche froide » pour 2024.

À l’occasion de ses prédictions annuelles, CSS Insight a indiqué que « la hype autour de l’IA générative a été juste immense en 2023, à tel point que nous pensons qu’elle est surcotée, et que de nombreux obstacles doivent être surmontés pour l’amener sur le marché ».

Pour rappel, le « hype cycle » popularisé par Gartner représente la courbe de maturité de technologies émergentes qui permet de repérer leur potentiel et rythme de déploiement.

A la phase de « peak of inflated expectations » succède une phase de « désillusion » pendant laquelle l’intérêt faiblit au moins temporairement, avant un regain progressif, souvent plus durable.

L’arrivée de l’IA générative aurait le potentiel d’augmenter la productivité du travail jusqu’à 40%

Source : The state of AI in 2023: Generative AI’s breakout year

Quels sont les freins à l'adoption de l'IA Générative pour le Contract Management ?

Les questions liées à la sécurité / confidentialité des données

Première limite, les questions liées à la sécurité / confidentialité des données. Les entreprises ne sont naturellement pas prêtes à verser leurs contrats dans des solutions d’IA tierces. La sensibilité de ces documents est telle que le niveau de sécurité doit être maximal.

Nombre d’entreprises ont purement et simplement interdit l’usage des outils de GenAI tant que ces risques ne sont pas traités.

D’autres développent leurs propres outils d’IA générative à partir de modèles open source, afin de disposer d’une architecture sécurisée permettant de conserver la propriété des contenus mis à disposition des modèles d’IA.

L'explicabilité des contenus

Les propositions générées par les outils d’IA Générative doivent non seulement être fiables et pertinentes, mais également pouvoir être justifiées pour éviter le risque de contenus faux, trompeurs, ou non sourcés.

Or, à ce jour, il reste très difficile d’obtenir des outils d’IA une explication détaillée de la provenance du contenu et des sources sous-jacentes.

Notons également l’impact des variations de « prompts », parfois d’apparence mineure, qui peuvent amener à des résultats très sensiblement différents selon les tournures employées par l’utilisateur.

C’est ainsi qu’ont émergé un nouveau métier de « Prompt Engineer » ainsi qu’une discipline consistant à réaliser des tests de sensibilité aux variations de prompt, à vérifier la capacité des outils à gérer une large gamme de requêtes, à répondre à des scénarios complexes, en garantissant la neutralité et l’absence de biais.

La cohérence des résultats, l’adaptabilité contextuelle des outils constituent ainsi des éléments clés pour améliorer la fiabilité et la sécurité d’utilisation des modèles de langage (LLM).

La question centrale du coût

La problématique du côut de l’IA Générative commence à émerger compte tenu de la masse de données et de paramètres à traiter par les LLM. Il s’agit en effet d’exécuter des modèles mathématiques complexes pour fournir les réponses aux prompts des utilisateurs, ce qui nécessite des puissances de calcul très importantes, donc coûteuses.

Au-delà des expérimentations et autres proof of concept, le sujet des coûts est très sensible, notamment dans la perspective du passage à l’échelle sur un large panel de cas d’usages, utilisant parfois des LLM différents, ou un volume d’utilisateurs plus important.

A ce titre, l’utilisation de la méthode RAG (Retrieval Augmented Generation) permet notamment de limiter les coûts en utilisant des modèles déjà pré-entrainés avec des volumes de données très importants, ce qui permet d’éviter d’ingérer des quantités massives de données d’apprentissage.

La nouvelle règlementation européenne sur l'IA : AI Act

L’Union Européenne a récemment trouvé un accord pour réguler l’utilisation de l’IA en Europe. Celui-ci a pour objectif d’établir un cadre éthique et sûr en mettant l’accent sur la transparence, la sécurité et le respect des droits fondamentaux dans le traitement de certains types de données sensibles (ex : données de santé) ou de cas d’usage à haut risques (ex : reconnaissance faciale) allant jusqu’à l’interdiction de certains cas (ex : social scoring ou la manipulation du comportement humain).

Cet AI Act va aussi forcer les entreprises à : 

  • s’assurer de la qualité des données utilisées pour nourrir les algorithmes ;
  • veiller au bon respect des droits d’auteur ; 
  • garantir que les contenus générés soient clairement identifiés comme artificiels ;
  • obliger les concepteurs à rédiger une documentation technique et diffuser des résumés détaillés sur le contenu utilisé pour entraîner leur IA.

Les entreprises pourraient ainsi devoir reporter le déploiement de solutions d’intelligence artificielle et investir davantage pour se conformer à la réglementation récemment instaurée.

5 bonnes pratiques pour prendre le virage de l'IA Générative

Pour bien prendre le virage de l’IA générative, notamment pour les métiers du Contract Management, nous préconisons de respecter quelques principes simples.

Contract Management

Découvrez nos expertises pour accompagner vos enjeux

Nous contacter

Échangeons ensemble autour de vos projets et de vos besoins

Pour aller plus loin