L’utilisation de l’intelligence artificielle dans la guerre en Iran : que dit le droit international ?
Le conflit en cours en Iran montre la dépendance avancée des armées états-unienne et israélienne à l’IA militaire, notamment pour le ciblage et la planification des frappes. Le bombardement d’une école à Minab, le 28 févier, présenté comme une erreur de ciblage et ayant causé la mort de 168 civils, principalement des enfants, met en lumière les risques juridiques, les failles des systèmes et les problèmes de responsabilité.
Le conflit armé contre l’Iran lancé le 28 février dernier par Washington et Tel-Aviv a été rapidement qualifié de « première guerre de l’IA ». Une assertion en réalité trompeuse à divers égards. Non seulement l’IA a-t-elle déjà été utilisée de façon intensive dans des conflits récents, notamment par Israël à Gaza, mais, plus largement, l’IA, en tant que moyen numérique de traitement et d’analyse de données, entretient une longue histoire avec les conflits armés, dont les fondements techniques remontent à la Seconde Guerre mondiale.
Certes, la situation iranienne se distingue par le niveau de sophistication sans précédent de ces moyens et par la dépendance inédite des armées à leur égard. Elle diffère également du conflit à Gaza en ce que, cette fois, l’IA a été déployée contre un adversaire étatique dans le cadre d’une guerre de haute intensité. Enfin, jamais les États n’avaient aussi ouvertement communiqué sur leur recours à ces systèmes. C’est cette communication conjuguée aux conséquences dramatiques de certaines frappes qui invite à s’interroger sur la compatibilité de ces pratiques avec le droit international.
Les faits : l’utilisation de l’IA dans la guerre en Iran
L’utilisation de l’IA par Israël dans sa guerre contre le Hamas avait été révélée par le journal 972. Ce média avait exposé ce que bon nombre de spécialistes soupçonnaient depuis quelques années. Dans le cadre du conflit en Iran, en revanche, ce sont les autorités américaines elles-mêmes qui ont annoncé leur emploi de l’IA.
Effectivement, les forces militaires américaines ont admis avoir recouru à des systèmes d’IA pour établir et trier la liste des objectifs à une vitesse fulgurante. Ce procédé aurait entraîné plus de 1 000 frappes, qualifiées de très précises, durant les vingt-quatre premières heures du conflit. Elles se seraient notamment servies du système Maven Smart System, un projet conjoint utilisant un logiciel d’IA de surveillance et de collecte de données de Palantir, couplé au système d’IA générative Claude, développé par Anthropic.
Cependant, lors du premier jour de guerre, l’une des frappes américaines a visé une école de Minab, causant la mort d’environ 170 victimes civiles, principalement des enfants. Les États-Unis ont reconnu leur responsabilité dans cette frappe, présentée comme une erreur. L’école était en effet située à proximité d’une base navale des Gardiens de la révolution. Elle faisait autrefois partie intégrante du même complexe, avant d’en être........
