menu_open Columnists
We use cookies to provide some features and experiences in QOSHE

More information  .  Close

Des bombes conversationnelles à retardement

15 0
02.03.2026

La tuerie de Tumbler Ridge, en Colombie-Britannique, dont l’autrice avait échangé des scénarios de violence armée avec ChatGPT des mois avant de passer à l’acte, n’était pas le premier avertissement. Il y eut précédemment des conseils de suicide donnés par le robot conversationnel à un adolescent californien. De même que des recommandations pour l’élaboration d’un attentat suicide prévu devant le Trump International Hotel de Las Vegas (abandonné par le tueur, qui s’est enlevé la vie dans son véhicule bourré d’explosifs).

Les dérives possibles de ces outils d’intelligence artificielle (IA) générative conçus pour alimenter les conversations les plus intimes et même les plus sombres avec leurs interlocuteurs, en les confortant pour les retenir comme utilisateurs, ne sont plus à prouver. L’urgence d’agir pour les encadrer est largement outrepassée.

Sermonner les géants du Web ou de l’IA, comme l’ont fait cette semaine le ministre canadien de l’Intelligence artificielle, Evan Solomon, et ses collègues, ne suffit plus. Les OpenAI et autres acteurs de ce Far West numérique ont maintes fois démontré qu’ils n’agiraient pas seuls, privilégiant à tout prix innovation et profits au détriment de l’humain client.

Que l’entreprise créatrice de ChatGPT annonce un resserrement de ses protocoles de sécurité à retardement — après avoir ignoré les appels de ses employés à ce qu’elle avertisse les autorités canadiennes des conversations alarmantes de Jesse Van Rootselaar sur sa plateforme — est insuffisant. Tout comme ce coup d’éclat des ministres, qui ne masque pas pour autant l’indolence du gouvernement fédéral, qui ne peut renoncer plus longtemps à réglementer ces compagnies.

À trop attendre d’avoir une vision d’ensemble et une stratégie globale et entière sur l’IA — qui protège les internautes de contenus et de deepfakes dangereux, mais qui défend également la souveraineté numérique et les droits d’auteur, en plus de forcer la transparence des sources l’alimentant —, le gouvernement s’est retrouvé paralysé en tentant d’accoucher d’un mammouth réglementaire. Un objectif inatteignable, de surcroît, le monde de l’IA étant en constante et vertigineuse évolution. Un étapisme comme celui adopté en Australie à l’endroit des réseaux sociaux aurait vraisemblablement été la voie à privilégier.

L’IA n’est pas qu’une nouvelle avenue d’investissements potentiels pour le Canada, comme l’espère le gouvernement de Mark Carney, mais en outre un enjeu fondamental de santé et de sécurité de notre société. L’encadrement de ces outils qui façonnent de plus en plus de quotidiens ne peut plus être laissé entre les mains de quelques tech bros américains.

La complexité de la tâche est indéniable. Les compagnies y résisteront, comme elles se sont opposées aux lois encadrant la diffusion continue et les nouvelles en ligne. Ce qui risque de devenir un énième irritant dans les négociations commerciales avec le président américain, Donald Trump. Des experts s’inquiéteront pour la vie privée et le risque de surjudiciarisation d’usagers de ces robots conversationnels. Exiger la revue du seuil d’intervention afin que, dans un cas semblable à celui de la tueuse de Tumbler Ridge, les autorités locales soient averties à l’avenir se heurterait par ailleurs au manque de ressources policières ou de santé mentale pour prendre en charge une personne en détresse.

Les solutions magiques et simplistes n’existent pas non plus. De tels signalements, même s’ils étaient obligatoires, ne surviennent qu’une fois le risque imminent, voire potentiellement trop tard. L’interdiction pure et simple de plateformes finit quant à elle inévitablement par être contournée (comme par Jesse Van Rootselaar, qui s’est créé un second compte après que le premier eut été suspendu par ChatGPT). Et les géants numériques n’encadrent pas davantage leur IA ou leur réseau social entre-temps.

Il incombe au gouvernement d’enfin jouer son rôle et de légiférer pour responsabiliser cette industrie en amont. En forçant une évaluation des risques adéquate, certes. Mais aussi, comme le suggère l’expert Taylor Owen, de l’Université McGill, en balisant ces robots conversationnels afin d’assurer l’intégrité de l’information qui y est transmise, d’encadrer les sujets et les contenus abordés — notamment avec les mineurs — ainsi que de limiter l’amplification de contenu préjudiciable et l’exploitation maximale d’une utilisation compulsive.

Faute d’y être contraintes, par la loi de même que par la menace de sanctions, les plateformes n’apporteront pas d’elles-mêmes ces garde-fous indispensables à notre espace public numérique.

La nouvelle version de la loi libérale sur les préjudices en ligne, qui avait initialement mis quatre ans à aboutir avant de mourir au feuilleton l’an dernier, serait attendue « prochainement », si l’on en croit les ministres qui s’insurgeaient cette semaine contre l’inertie d’OpenAI. Il est grand temps que leur gouvernement la dépose. Et, surtout, que l’IA y soit elle aussi intégrée et réglementée.

Ce texte fait partie de notre section Opinion. Il s’agit d’un éditorial et, à ce titre, il reflète les valeurs et la position du Devoir telles que définies par son directeur en collégialité avec l’équipe éditoriale.


© Le Devoir