Mythos: quand l’IA devient trop puissante pour être lâchée dans la nature
EXPERT INVITÉ. La course à la puissance des modèles d’intelligence artificielle (IA) exige, dès maintenant, des balises sérieuses.
Le 7 avril dernier, Anthropic a annoncé un nouveau modèle d’IA générative baptisé Mythos. Et tout de suite après l’annonce, l’entreprise a fait quelque chose qu’on n’avait jamais vu dans l’industrie: elle a refusé de le rendre public.
Pas un lancement différé, pas un accès payant réservé aux entreprises, un refus net! Mythos est, selon Anthropic elle-même, trop puissant pour circuler librement.
On parle d’un modèle capable de découvrir, de façon autonome, des milliers de failles de sécurité jamais identifiées auparavant dans à peu près tous les systèmes d’exploitation et navigateurs. Une grande partie de ces vulnérabilités ne sont toujours pas corrigées au moment où je vous écris ce billet de blogue. C’est un saut de capacité que la communauté en cybersécurité décrit comme «sans précédent».
Il est grand temps de mettre des balises
Soyons clairs, je ne suis pas en train de dire qu’il faut mettre l’IA sur pause. Les gains de productivité sont réels et les organisations qui adoptent ces technologies aujourd’hui prennent une longueur d’avance. L’IA générative et l’agentique représentent une révolution réelle et le Québec ne peut pas se permettre de lever le pied dans cette course.
Mais Mythos nous oblige à regarder en face une question qu’on a trop longtemps reportée: qui décide de ce qui est rendu public, à quel rythme et avec quelles balises?
Aujourd’hui, cette décision repose presque entièrement sur les entreprises elles-mêmes. Anthropic a sa Responsible Scaling Policy, OpenAI a son Preparedness Framework et DeepMind a son Frontier Safety Framework. Ce sont des cadres internes, élaborés par les entreprises qui développent les modèles et qui, dans les faits, s’autorégulent. C’est un peu comme si on demandait aux pétrolières d’établir leurs propres normes........
