Le Canadien va gagner la Coupe Stanley
Les auteurs profitent du début des séries éliminatoires pour faire la preuve que l’utilisation de l’IA générative permet d’obtenir les réponses souhaitées aux questions qu’on lui pose. Une façon bien pratique d’obtenir la « vérité » désirée.
Et si la vraie question n’était pas de savoir si les Canadiens de Montréal gagneront la Coupe Stanley ce printemps… mais pourquoi sommes-nous de plus en plus enclins à croire ce que l’intelligence artificielle nous dit ?
Pour explorer cette question, nous avons demandé à l’IA générative de nous expliquer pourquoi les Canadiens allaient remporter les grands honneurs.
La démonstration est convaincante : profondeur à cinq contre cinq, gardiens contribuant au succès, unités spéciales performantes et équipe ayant le vent en poupe.
Un raisonnement structuré, rationnel, cohérent et convaincant.
Et pourtant, profondément incomplet.
Car ce que cet exercice révèle, ce n’est pas tant la capacité de l’IA générative à prédire un résultat (sportif ou autre), mais plutôt ses limites, et surtout nos limites comme utilisateurs de l’IA.
Première réalité : tous les utilisateurs n’obtiennent pas les mêmes réponses
L’intelligence artificielle générative n’est pas un outil uniforme. La qualité des résultats dépend directement de la manière dont la question est posée, du contexte fourni, des itérations effectuées. Deux utilisateurs posant une question similaire peuvent obtenir des réponses bien différentes, parfois contradictoires.
Autrement dit, l’IA ne remplace pas l’expertise.
Deuxième réalité : même de bons résultats peuvent être mal interprétés
Une réponse bien formulée donne une impression de rigueur et de certitude. Pourtant, elle demeure une construction probabiliste. Dans notre cas, les arguments avancés par l’IA sont valides et basés sur des données historiques et empiriques (par exemple, le résultat des séries éliminatoires depuis 25 ans), mais applicables à plusieurs équipes. Sans recul critique, un utilisateur pourrait confondre plausibilité et probabilité.
C’est ici que le risque s’intensifie : l’IA ne se trompe pas nécessairement, mais elle peut être mal comprise. L’IA ne remplace pas le jugement.
Troisième réalité : l’IA demeure, pour l’instant, un outil spécialisé
L’efficacité de l’IA repose encore largement sur la capacité de l’utilisateur à l’interroger, à la remettre en question, à contextualiser ses réponses. Cela exige une forme d’entraînement, non pas de la machine, mais de l’humain.
Dans ce contexte, l’illusion d’accessibilité peut devenir un piège.
Au-delà des enjeux d’utilisation de l’IA
Notre exercice met aussi en lumière plusieurs limites structurelles de l’IA.
D’abord, les données d’entraînement sont limitées dans le temps. Une IA ne sait pas ce qui se passe en temps réel sans un accès actualisé à des sources externes. Dans un environnement aussi dynamique que les séries éliminatoires, cette contrainte est majeure.
Ensuite, le contrôle des sources devient un enjeu critique. Lorsque l’IA s’appuie sur des données externes, la qualité, la fiabilité et même la légitimité de ces sources peuvent varier.
Mais la limite la plus subtile, et probablement la plus déterminante, demeure celle des biais.
Dans notre exercice, nous avons demandé à l’IA d’expliquer pourquoi les Canadiens allaient gagner la Coupe Stanley. Le résultat ? Une argumentation, presque une plaidoirie de partisan, entièrement orientée en ce sens. Aucun contre-argument, aucune mise en garde.
C’est un exemple classique de biais de confirmation.
L’IA ne cherche pas la vérité : elle cherche à répondre à la demande de l’utilisateur de manière cohérente et satisfaisante. Elle tend donc, naturellement, à produire une réponse qui plaît.
Ce phénomène dépasse largement le sport.
Dans un contexte d’affaires, ces mêmes mécanismes peuvent influencer des décisions en matière d’investissement, de stratégie, de marketing, de recrutement. Une analyse générée par l’IA peut sembler rigoureuse, alors qu’elle repose sur des hypothèses implicites, des données incomplètes ou des angles non explorés.
D’où une question fondamentale : où s’arrête la recommandation, et où commence la responsabilité ?
Le droit ne sanctionne pas l’erreur de prédiction en soi ; il encadre plutôt la façon de présenter la fiabilité, la transparence des facteurs, la gouvernance des données, etc.
On peut exiger de l’IA une méthodologie d’analyse raisonnable (données fiables, validation étoffée). En droit, la distinction est claire : l’intelligence artificielle relève d’une obligation de moyens, non de résultat. Elle peut éclairer une décision, mais ne peut s’y substituer. L’humain demeure imputable et doit exercer son jugement.
Revenons à nos Canadiens. Vont-ils gagner la Coupe Stanley ?
Sans aucun doute… Bon, on l’espère. L’IA ne fait ici qu’une chose : transformer une possibilité en récit crédible. Et c’est précisément ce qui la rend à la fois si puissante… et dangereuse, car plus les outils deviennent performants, plus la responsabilité de l’utilisateur augmente.
Et plus la tentation de non-responsabilisation de l’utilisateur devient forte.
