Si l’IA apprend la culture… laquelle apprendra-t-elle ?
La culture, ce n’est pas seulement une langue. C’est une manière de penser. Une façon de raconter des histoires, de faire des blagues, de cuisiner, de débattre, de décider ce qui est juste ou non. C’est ce qui fait qu’une tourtière n’est pas qu’un pâté, et qu’une réplique de La petite vie ne se traduit pas vraiment.
Or, depuis quelques années, une nouvelle entité apprend à penser en observant l’humanité : l’intelligence artificielle (IA).
La question n’est pas anodine : si ces systèmes apprennent à partir de ce que nous produisons, quelle culture vont-ils absorber ? Et surtout, laquelle vont-ils ensuite reproduire ?
Un exemple bien connu permet de saisir l’enjeu. Des chercheurs du Massachusetts Institute of Technology ont demandé à des millions de personnes, dans une expérience publiée dans la revue Nature1, de trancher des dilemmes moraux impliquant des voitures autonomes. Dans un des scénarios, une voiture devait choisir entre heurter un bébé ou un vieillard.
Les réponses, récoltées dans plus de 230 pays, variaient fortement selon les cultures. Certaines sociétés privilégiaient les plus jeunes, d’autres accordaient davantage de valeur aux aînés, d’autres encore étaient moins préoccupées par l’âge et voulaient préserver les plus riches ou encore ceux qui avaient simplement le mieux respecté le code de la route.
La conclusion est simple : la morale n’est pas universelle, elle est culturelle. Et si une........
