L’AMF et la gouvernance de l’IA, ou quand les institutions devancent la loi
L’Autorité des marchés financiers (AMF) vient de publier une Ligne directrice sur l’utilisation de l’intelligence artificielle (IA) destinée aux assureurs, aux coopératives de services financiers, aux sociétés de fiducie et aux institutions de dépôts autorisés. Dans un contexte marqué par l’absence d’un cadre législatif pleinement stabilisé, tant au Québec qu’au Canada, cette initiative mérite une attention particulière. Elle constitue à la fois un signal fort et un laboratoire concret de gouvernance de l’intelligence artificielle.
Dans ce contexte, l’AMF s’affirme comme une institution régulatrice particulièrement structurante. En intervenant de manière proactive, elle ne se contente pas d’attendre un encadrement normatif encore incertain, elle contribue déjà à en esquisser les contours, en traduisant des principes abstraits en pratiques organisationnelles concrètes.
Il faut le rappeler, l’IA n’est plus un horizon technologique abstrait. Elle est déjà à l’œuvre dans des secteurs qui structurent profondément la vie quotidienne, au premier rang desquels l’assurance et les services financiers. Tarification personnalisée, détection de fraude, automatisation des réclamations : autant d’usages où les systèmes d’IA influencent directement des décisions qui concernent les citoyens.
Dans ce contexte, l’initiative de l’AMF est intéressante à double titre. D’une part, elle reconnaît explicitement que les bénéfices attendus de l’IA s’accompagnent de risques multiples, qu’ils soient techniques, organisationnels, mais aussi éthiques et sociaux. D’autre part, elle propose une réponse structurée fondée sur des principes de gouvernance et de gestion des risques inspirés des standards internationaux, notamment ceux de l’OCDE.
Une gouvernance qui commence au sommet
L’un des apports majeurs de cette ligne directrice réside dans l’importance accordée à la gouvernance. L’AMF ne se limite pas à des considérations techniques, elle exige une implication explicite du conseil d’administration et de la haute direction dans la supervision des systèmes d’IA.
Ce déplacement est crucial, car il traduit une évolution importante. L’IA n’est plus une simple affaire d’ingénieurs ou de spécialistes des données. Elle devient un enjeu stratégique, relevant de la responsabilité des instances dirigeantes. Le conseil d’administration doit ainsi comprendre les risques associés à l’IA, suivre leur évolution et s’assurer que l’organisation dispose des compétences nécessaires pour les gérer. Cette exigence rejoint une intuition forte en science et technologie : les choix techniques sont toujours aussi des choix politiques et organisationnels. En ce sens, l’AMF contribue à reconfigurer la place de l’IA dans les institutions, en la sortant d’une logique purement opérationnelle.
Autre point fort, une approche par les risques, pragmatique mais exigeante. Chaque système d’IA doit être recensé, évalué, classé selon une cote de risque, puis suivi tout au long de son cycle de vie. Ce cadre présente plusieurs avantages. Il permet d’éviter une régulation uniforme et rigide, en modulant les exigences selon les usages. Un système utilisé pour recommander des produits financiers ne pose pas les mêmes enjeux qu’un système automatisant l’acceptation ou le refus d’une réclamation d’assurance.
Mais cette approche pose aussi un défi considérable : elle suppose une capacité organisationnelle élevée. Cartographier l’ensemble des systèmes d’IA, en évaluer les risques, assurer leur surveillance continue… Tout cela exige des ressources, des compétences et des outils encore inégalement répartis entre les institutions.
En d’autres termes, la ligne directrice de l’AMF ne fait pas qu’encadrer : elle élève le niveau d’exigence.
L’éthique comme principe opératoire
L’un des aspects les plus intéressants du document réside dans l’intégration explicite de considérations éthiques au cœur des pratiques. L’AMF insiste notamment sur la prévention des biais, la non-discrimination et le traitement équitable des clients.
Cela n’est pas anodin dans le secteur de l’assurance. L’usage de données massives et de modèles prédictifs peut conduire à des formes de discrimination indirecte, par exemple, au moyen des variables de substitution qui reproduisent des inégalités sociales. La ligne directrice exige non seulement l’identification de ces risques, mais aussi leur correction et leur documentation. Elle impose également des obligations de transparence, puisque les institutions doivent informer les clients lorsqu’elles interagissent avec un système d’IA, et être en mesure d’expliquer les décisions prises ou recommandées par ces systèmes.
Ces exigences traduisent une conception exigeante de la responsabilité algorithmique. Elles rappellent que la confiance dans les institutions financières repose aussi sur leur capacité à rendre compte de leurs décisions, y compris lorsqu’elles sont automatisées.
Des limites à ne pas négliger
Malgré ses qualités, cette initiative présente certaines limites.
D’abord, il s’agit d’une ligne directrice, et non d’une loi. Elle repose donc sur un principe de conformité prudentielle plutôt que sur des obligations juridiquement contraignantes au sens strict. Cela peut limiter sa portée, notamment en cas de divergences d’interprétation ou de mise en œuvre inégale.
Ensuite, le document laisse une marge importante aux institutions dans la définition de leurs propres pratiques. Si cette flexibilité est cohérente avec une approche par les risques, elle peut aussi conduire à des écarts importants entre organisations.
Enfin, la question des ressources demeure centrale. Toutes les institutions ne disposent pas des mêmes capacités pour internaliser ces exigences. Le risque est alors de voir émerger une gouvernance de l’IA à deux vitesses.
Un modèle à généraliser
Malgré ces limites, l’initiative de l’AMF mérite d’être saluée. Elle illustre une voie possible dans un contexte où les cadres législatifs peinent à suivre le rythme des innovations.
Ce mouvement n’est d’ailleurs pas isolé. Au Québec, l’administration publique a récemment adopté une « indication d’application » encadrant l’usage de l’intelligence artificielle générative, reposant elle aussi sur une logique de gouvernance, de gestion des risques et de supervision humaine. Cette convergence est loin d’être anodine, elle témoigne de l’émergence progressive d’un modèle québécois de régulation pragmatique de l’IA, fondé moins sur l’interdiction que sur l’organisation des responsabilités.
Surtout, elle pose une question plus large : pourquoi ce type d’approche ne serait-il pas généralisé à d’autres secteurs ? Santé, éducation, plateformes numériques : partout, des systèmes d’IA sont déployés avec des effets potentiellement majeurs sur les individus. Partout, les enjeux de gouvernance, de transparence et de responsabilité se posent avec la même acuité.
L’exemple de l’AMF montre ainsi qu’il est possible d’agir sans attendre une loi-cadre exhaustive. Il montre aussi que la régulation de l’IA ne passe pas uniquement par des interdictions ou des obligations formelles, mais aussi par la structuration des pratiques organisationnelles. En ce sens, cette ligne directrice constitue moins un aboutissement qu’un point de départ. Elle invite à repenser la gouvernance de l’IA comme une responsabilité collective, partagée entre régulateurs, institutions et, ultimement, citoyens.
Au-delà des débats techniques et juridiques, une chose demeure : l’intelligence artificielle n’est pas seulement une technologie. C’est un mode de décision qui, de plus en plus, organise nos vies. Et à ce titre, elle ne peut demeurer sans gouvernail.
Ce texte fait partie de notre section Opinion, qui favorise une pluralité des voix et des idées en accueillant autant les analyses et commentaires de ses lecteurs que ceux de penseurs et experts d’ici et d’ailleurs. Envie d’y prendre part? Soumettez votre texte à l’adresse opinion@ledevoir.com. Juste envie d’en lire plus? Abonnez-vous à notre Courrier des idées.
