menu_open Columnists
We use cookies to provide some features and experiences in QOSHE

More information  .  Close

Peut-on confier la décision de tuer à une machine?

13 0
10.03.2026

« Dans ce monde dangereux et instable, pour être libre, il faut être craint et, pour être craint, il faut être puissant », a déclaré Emmanuel Macron le 2 mars 2026 à la base de l’île Longue en annonçant le renforcement de la dissuasion nucléaire française. Cette rhétorique fait écho à une actualité brûlante en matière de relations internationales : la remilitarisation progressive des États.

Sous la pression de l’Organisation du traité de l’Atlantique Nord (OTAN) pour atteindre l’objectif de 2 % du PIB consacré à la défense, le Canada, longtemps critiqué pour ses dépenses militaires jugées insuffisantes, se trouve à un moment décisif. Il doit renforcer ses capacités militaires tout en intégrant de nouvelles technologies, notamment l’intelligence artificielle (IA). Toutefois, cette modernisation soulève une question essentielle : la militarisation de l’IA n’exige-t-elle pas des règles strictes ?

Investissements massifs canadiens

Le Canada accélère son réarmement avec une Stratégie industrielle de défense qui prévoit plus de 500 milliards de dollars sur le long terme, dont 180 milliards pour l’approvisionnement et 290 milliards pour la défense et la sécurité. Un chiffre vertigineux, présenté comme un tournant historique pour la souveraineté canadienne. Le gouvernement fédéral reconnaît lui-même que l’intelligence artificielle et les systèmes autonomes feront partie des technologies clés de la défense de demain et annonce des investissements importants dans ces domaines.

Pourtant, si l’accent est mis sur l’innovation et les capacités militaires, la question de leur encadrement juridique demeure largement absente du discours. En effet, Ottawa n’a pas adopté de législation nationale sur l’utilisation militaire de l’IA ni sur les armes autonomes, et ne se prononce pas non plus sur un traité international d’interdiction.

Le signal d’alarme est pourtant tiré depuis plusieurs années. Le 2 décembre 2024, l’Assemblée générale des Nations unies adoptait une résolution sur les systèmes d’armes létaux autonomes avec 166 votes en faveur, soulignant l’urgence d’un traité international à ce sujet. Le Canada a voté pour cette résolution, mais rien ne traduit cet engagement sur le plan intérieur.

Le défi de la responsabilité internationale

Le problème de fond est celui de la responsabilité. L’utilisation de systèmes d’armes autonomes crée un vide pour ce qui est de la responsabilité : les algorithmes rendent difficile la mise en cause pénale des opérateurs humains, tout comme la responsabilisation civile des programmeurs et des développeurs.

Qui, demain, répond d’un drone militaire canadien à décision autonome qui cible une infrastructure civile ? L’État ? Le fabricant québécois ? L’officier de la Défense nationale ? L’algorithme lui-même ?

Ce vide fragilise le droit international humanitaire, particulièrement pour les victimes civiles, souvent des femmes et des enfants. La dilution de la responsabilité humaine rend difficile l’identification des coupables. L’accès à la justice pour ces victimes est compromis. Comme le souligne Benjamin Perrin, professeur de droit à l’Université de la Colombie-Britannique, les cadres juridiques existants n’ont tout simplement pas été conçus pour trancher ce type de question.

Vers une régulation responsable

Investir massivement dans la militarisation de l’IA sans loi sur l’IA, sans débat sur les armes autonomes et sans position claire sur un traité international, c’est construire une forteresse sans fondations. Le Canada peut devenir un leader en matière de technologies militaires, mais s’il ne légifère pas maintenant — avant que les contrats ne soient signés, les brevets déposés et les systèmes déployés —, il n’aura financé qu’une chose : des machines qui tuent sans que personne en réponde.

Dépenser sans légiférer, c’est signer un contrat sans en lire les clauses. Quand les systèmes seront déployés et les intérêts en place, il sera trop tard pour imposer des règles.

Le Canada n’est pas n’importe quel acteur sur la scène internationale. C’est le pays qui a porté le Traité d’Ottawa sur les mines antipersonnel en 1997, qui a joué un rôle central dans la création de la Cour pénale internationale, et qui est à l’origine de la doctrine de la responsabilité de protéger — un concept élaboré à l’initiative d’Ottawa en 2000 et adopté par l’ONU en 2005. Cette tradition de diplomatie humanitaire est une marque identitaire que le monde reconnaît et attend du Canada.

Cette réputation est aujourd’hui en jeu. Comment Ottawa peut-il plaider pour un traité international sur les armes autonomes à New York ou à Genève tout en refusant de légiférer chez lui ? La crédibilité diplomatique se construit d’abord par l’exemple intérieur.

Il y a là non seulement une incohérence, mais une occasion manquée. Le Canada pourrait être le premier pays du G7 à adopter une loi nationale contraignante encadrant explicitement l’IA militaire, à fixer des critères clairs sur le contrôle humain des systèmes létaux autonomes, et à porter ce modèle sur la scène multilatérale. Ce serait cohérent avec son histoire. Ce serait aussi stratégiquement intelligent dans un monde où la légitimité des puissances moyennes repose précisément sur leur capacité à incarner des normes que les grandes puissances refusent de porter.

Ce texte fait partie de notre section Opinion, qui favorise une pluralité des voix et des idées en accueillant autant les analyses et commentaires de ses lecteurs que ceux de penseurs et experts d’ici et d’ailleurs. Envie d’y prendre part? Soumettez votre texte à l’adresse opinion@ledevoir.com. Juste envie d’en lire plus? Abonnez-vous à notre Courrier des idées.


© Le Devoir