Le prix élevé des dérives de l’IA
La tragédie de Tumbler Ridge est venue illustrer les conséquences très concrètes des politiques de laisser-faire en matière de technologies de l’information. À la suite des révélations selon lesquelles la tueuse de Tumbler Ridge avait eu des interactions avec ChatGPT, le ministre de l’Intelligence artificielle et de l’Innovation numérique, Evan Solomon, a interpellé des représentants d’OpenAI afin d’en savoir plus au sujet des mesures de sécurité mises en place par l’entreprise. Au lendemain de la rencontre, Le Devoir rapportait que le ministre avait exigé de cette entreprise « des propositions concrètes, des actions concrètes […] en matière de seuils à partir desquels les protocoles humains et [automatiques] sont enclenchés pour appeler la police ».
Il est désolant de constater qu’il aura fallu une tragédie de cette ampleur pour faire bouger les autorités. Pour l’heure, celles-ci s’en remettent à la bonne volonté des entreprises en espérant que leur souci de soigner leur image les incitera à coopérer avec ceux qui peuvent réduire les risques de tragédie. Les dirigeants fédéraux et ceux des provinces prennent leur temps pour imposer des obligations de transparence et de responsabilité aux entreprises qui déploient des dispositifs fonctionnant à l’intelligence artificielle (IA).
Les outils fonctionnant à l’IA peuvent permettre à n’importe qui de générer des images et des sons afin de produire de fausses informations. C’est sans compter les capacités de leurrer des enfants et même des adultes. Par exemple, il y a quelques mois, on apprenait que des vidéos de personnalités connues faisaient la promotion de prétendus placements aux rendements miraculeux. Tout cela était faux et frauduleux. Des individus se sont fait avoir, certains ont perdu leurs économies ou leur dignité. L’IA permet ce type d’arnaques. Pour certains, ce sont les victimes qui seraient à blâmer. On n’a pas mieux à leur répondre que de leur reprocher d’avoir été imprudentes…
Il est utopique de s’imaginer que les individus peuvent seuls se prémunir contre les usages malveillants de l’IA. Les dispositifs fonctionnant à l’IA sont présents dans un vaste ensemble de ressources disponibles en ligne. Tous les environnements numériques sont concernés par la multiplication des dérives alimentées par l’IA. Par exemple, l’équipe de l’émission Les décrypteurs nous apprenait le 25 février dernier que YouTube agissait peu face aux fausses nouvelles, souvent générées grâce à l’IA, qui pullulent dans ce qui est devenu la principale source de vidéos en ligne.
Les lois canadiennes sont muettes ou au mieux vagues quant aux obligations incombant aux entreprises qui déploient des dispositifs d’IA. Dans quelle mesure doivent-elles alerter les autorités lorsque des renseignements sur de possibles menaces viennent à leur connaissance ? Quelles précautions devraient être mises en place afin de prévenir les usages dangereux de technologies aussi puissantes ? Qu’il s’agisse de réglementer les applications d’IA, de créer des espaces en ligne plus sûrs pour tous ou de prendre en compte les effets des procédés de falsification de l’information sur le discours public, la nécessité de la mise en place de mesures de protection réfléchies et efficaces n’a jamais été aussi criante.
Ne pas brider l’innovation ?
L’un des arguments qui reviennent souvent pour s’opposer à la mise en place de réglementations afin de prévenir les dérives des dispositifs comme ceux fonctionnant à l’IA est la nécessité de ne pas brider « l’innovation ». Contrairement à la plupart des gouvernements de la planète, le gouvernement fédéral américain s’oppose à toute législation sur l’IA, car il croit que cela viendrait freiner l’innovation, source de prospérité. Cela n’a pas empêché la Californie et d’autres États américains de mettre en place des lois afin de préciser les obligations incombant aux entreprises qui utilisent et mettent à la disposition d’autrui des ressources carburant à l’IA. Mais comment expliquer la lenteur des autorités canadiennes à mettre à niveau nos lois et leurs mécanismes d’application afin de faire face aux dérives que l’IA facilite ? Est-ce que la politique d’aplaventrisme devant l’intimidateur qui règne à la Maison-Blanche l’emporte sur l’impératif qu’est la prévention de fraudes ou de tragédies comme celle de Tumbler Ridge ?
L’IA est porteuse d’innovations, mais, comme toute technologie, elle peut être utilisée de façon malveillante. Ses capacités peuvent être mobilisées pour forger de fausses images et des sons factices ou pour générer des renseignements à la demande de personnes qui ont des intentions criminelles ou suicidaires. Et tout cela sans compter les messages racistes, homophobes ou misogynes diffusés en ligne. C’est pour cela que les lois viennent imposer des obligations à ceux qui utilisent des objets pouvant se révéler dangereux.
Le site d’information MediaPolicy.ca rapportait, dans son édition du 26 février dernier, les résultats d’un sondage Léger commandé par un groupe canadien dirigé par la mère d’Amanda Todd, une victime de cyberharcèlement. On y apprend qu’il y a un fort taux d’appui à des mesures contre les méfaits en ligne. Le sondage révèle un taux élevé d’inquiétude au sujet des contenus susceptibles de créer une dépendance et autres contenus nuisibles ainsi qu’un soutien élevé à une réglementation (90 %) mise en œuvre par un organisme indépendant (79 %). Le soutien à la réglementation des outils d’IA, en plus des applications sociales, est aussi important (75 %).
Les risques que les dispositifs en ligne propulsés par l’IA font courir aux populations sont multiples et de plus en plus considérables. C’est pourquoi les universitaires experts de ces technologies rappellent que la véritable innovation est celle qui respecte les précautions nécessaires pour protéger les populations. Le retard des autorités canadiennes dans l’imposition d’obligations de transparence aux entreprises qui proposent des dispositifs en ligne a un prix. Et ce prix est payé par les victimes des abus rendus possibles par les carences touchant les outils en ligne calibrés en fonction des seuls intérêts commerciaux des géants d’Internet.
Ce texte fait partie de notre section Opinion, qui favorise une pluralité des voix et des idées. Il s’agit d’une chronique et, à ce titre, elle reflète les valeurs et la position de son auteur et pas nécessairement celles du Devoir.
