IA en entreprise : place à la gouvernance !

L’intelligence artificielle présente un potentiel considérable pour les entreprises. Mais pour l’exploiter et éviter les déconvenues, son usage doit être encadré par une politique de gouvernance qui prenne en compte à la fois la légalisation, les contraintes sectorielles et les spécificités de l’organisation.

Que faut-il pour qu’une société humaine fonctionne ? Un objectif commun, des règles à suivre, une organisation adaptée, et des outils de contrôle. C’est ce que l’on appelle un cadre de gouvernance ; un mot un peu compliqué pour en réalité désigner une évidence.

Et c’est ce dont l’intelligence artificielle a besoin, au niveau mondial, régional, et local, dans votre entreprise.

Des risques à identifier et à mesurer, pour les éviter

Récemment, une compagnie aérienne nord-américaine a été condamnée à indemniser un passager qui avait suivi les mauvaises recommandations d’un agent conversationnel [1]. Et un avocat a été pointé du doigt par un juge, pour avoir utilisé dans sa plaidoirie des jurisprudences fantaisistes inventées par une IA générative bien connue. Quant à une société technologique, elle a découvert que le compte-rendu de réunion confidentiel qu’un employé avait tenté de faire résumer par une IA se retrouvait maintenant utilisé par cette même IA qui en faisait suivre certaines parties à l’extérieur.

Utiliser des outils d’apprentissage machine, d’IA générative ou de tout autre système automatisé, nécessite de comprendre et de mesurer les risques liés à leur utilisation. Et pour que chaque employé sache ce qu’il peut, et ne peut pas faire, un cadre de gouvernance doit être formalisé. Il précisera les conditions d’utilisation de ces outils, ainsi que les éventuelles sanctions si ce cadre n’était pas respecté.

Il va donc falloir cartographier ces risques, ceux liés aux données, aux algorithmes, et aux usages.

Des bonnes pratiques à définir et à respecter

Dans une interview récente au Wall Street Journal [2], Mira Murati, CTO de OpenAI, a reconnu qu’elle n’avait aucune idée de comment avait été entraîné le nouveau modèle d’IA de l’entreprise, Sora, qui permet de générer des vidéos réalistes. Un aveu qui sonne comme une alarme.

Allez-vous confier des décisions de votre entreprise, la rédaction de contenus, des calculs d’investissements, à un système dont vous ne savez pas comment il a été nourri ? Au-delà du respect de la réglementation, n’a-t-il pas été alimenté avec des biais éthiques, sexistes, discriminatoires, et ne va-t-il pas les reproduire dans ses résultats ?

Tout modèle d’IA doit être encadré : identifier et vérifier les données qui l’alimentent, mettre en place un protocole de test des modèles, mesurer en continu les résultats et les dérives éventuelles. Le suivi de la norme ISO 42001 [3] vous aidera à appréhender l’ensemble de ces sujets.

Des règles adaptées à chaque entreprise

Vous avez entendu parler de l’IA Act [4]. Approuvé par l’Europe début 2024, il définit les limites de ce qu’une entreprise peut faire sur notre territoire. Rien de bien difficile à respecter, mais il faut au moins en connaitre le contenu.

Si vous travaillez avec des sociétés étrangères, d’autres législations vont s’appliquer. Certains secteurs d’activité (banques et assurances, secteur public, santé, juridique…) vont aussi développer leurs règles. Et chaque entreprise s’appuiera sur ses propres choix éthiques pour préciser certains cas d’usage.

Le processus n’est pas compliqué, mais il doit être organisé : mettre en place une veille sur les textes qui s’appliquent, instaurer des procédures de contrôle, et désigner ceux qui les appliqueront, pour enfin suivre l’ensemble dans un tableau de bord ad hoc.

AI Steward, Chief Data Officer, Chief AI Officer, département de conformité, ou d’audit, service juridique, il faut informer, former et adouber clairement ceux qui auront en charge la mise en place opérationnelle de cette gouvernance. Attention, surtout pas les data scientists ! Ils ne peuvent pas être juges et parties. C’est leur respect des règles qui doit être vérifié, même s’ils ne vont pas forcément l’accepter au départ.

Gouvernance d’entreprise, du système d’information, des données, et maintenant de l’IA. C’est la prochaine étape indispensable à la sécurisation de vos investissements sur le sujet.

Philippe Nieuwbourg, analyste en technologies de l’information
www.nieuwbourg.com


[1] https://ici.radio-canada.ca/nouvelle/2049941/robot-conversationnel-air-canada-plainte

[2] https://www.wsj.com/video/series/joanna-stern-personal-technology/openai-made-me-crazy-videosthen-the-cto-answered-most-of-my-questions/C2188768-D570-4456-8574-9941D4F9D7E2

[3] https://www.iso.org/fr/standard/81230.html

[4] https://digital-strategy.ec.europa.eu/fr/policies/regulatory-framework-ai

About the Author: Philippe Nieuwbourg

Analyste en technologies de l’information.