C’est un débat qui revient régulièrement. Le metaverse est mort. Mark Zuckerberg se serait planté. Ça ne marchera jamais.
Pourtant, depuis quelques mois, un terme émerge avec insistance dans les cercles de recherche en intelligence artificielle : world models. À première vue, il semble technique, réservé aux laboratoires de pointe comme Google DeepMind, Meta, ou aux figures tutélaires du domaine, à l’image de Yann LeCun. Ce dernier, en quittant Meta pour lancer une nouvelle start-up, propose une vision claire : les modèles de langage actuels, aussi impressionnants soient-ils, restent fondamentalement limités. Il mise désormais sur une nouvelle génération de modèles capables non plus seulement de prédire des mots, mais de raisonner sur le monde réel.
Derrière cette évolution sémantique, c’est un basculement bien plus profond qui s’amorce, une redéfinition de ce que nous appelons intelligence artificielle, et au-delà, de notre manière même d’envisager les mondes numériques.
Jusqu’ici, l’IA générative a surtout appris à produire. Produire du texte, des images, des vidéos, du code. Elle excelle à imiter, à recombiner, à prédire ce qui vient après. Mais elle reste fondamentalement désincarnée. Elle parle du monde sans y être confrontée. Elle décrit la gravité sans jamais la subir. Elle évoque l’espace sans jamais s’y déplacer. C’est précisément cette limite que les world models cherchent à dépasser.
Un world model, ce n’est pas un décor virtuel, ni un jeu vidéo sophistiqué. C’est une IA capable de se construire une représentation interne du monde : comprendre que les objets ont une permanence, que les actions ont des conséquences, que le temps, l’espace et la causalité structurent la réalité. Autrement dit, une IA qui n’apprend plus seulement par le langage, mais par l’interaction avec des environnements simulés, cohérents, persistants. Une IA qui peut tester, anticiper, se tromper, corriger. Comme le fait un enfant.
Si ce mouvement prend de l’ampleur aujourd’hui, ce n’est pas par hasard. D’abord parce que les limites du « tout langage » deviennent visibles : hallucinations, raisonnements fragiles, difficulté à agir dans le monde réel. Ensuite parce que les avancées en vidéo générative, en simulation 3D et en calcul rendent enfin possible ce qui relevait jusqu’ici de la théorie. Enfin parce que la robotique, l’industrie, la médecine, l’architecture ont besoin de systèmes capables de comprendre des environnements complexes avant d’y intervenir.
C’est là que le lien avec le metaverse devient évident. Non pas le metaverse réduit à une promesse marketing ou à des avatars sans usages clairs, mais le metaverse comme concept fondamental : celui de mondes numériques persistants, explorables, modifiables, dans lesquels on peut apprendre, simuler, expérimenter sans risquer le réel. Lorsque j’ai écrit mon livre sur le metaverse, je défendais déjà cette idée : il ne s’agissait pas d’un effet de mode, mais d’une mutation de nos espaces cognitifs et sociaux. Le metaverse n’était pas une fin en soi, mais une infrastructure mentale et technologique.
Les world models en sont aujourd’hui une évolution logique. Là où le metaverse proposait des mondes pour les humains, les world models construisent des mondes pour les intelligences artificielles. Là où nous cherchions à nous immerger dans des environnements virtuels, l’IA apprend désormais à s’y former, à y raisonner, à y agir. Le changement est subtil mais décisif : le monde virtuel n’est plus seulement un espace de représentation, il devient un espace d’apprentissage et de cognition.
Ce glissement explique aussi pourquoi certains chercheurs, dont Yann LeCun, y voient une étape clé vers une intelligence artificielle plus générale. Comprendre le monde ne passe pas uniquement par des mots, mais par des modèles internes capables de simuler la réalité avant l’action. Les world models ne remplacent pas les LLM, ils les complètent et les dépassent en introduisant une dimension qui manquait jusqu’ici : le sens physique et causal.
À quoi devons-nous nous attendre en 2026 et dans les années suivantes ? D’abord à une accélération des simulations : jumeaux numériques industriels, hôpitaux virtuels pour l’entraînement médical, environnements d’apprentissage pour robots et véhicules autonomes. Ensuite à une hybridation croissante : des systèmes mêlant langage, vision, action et simulation dans des architectures unifiées. Enfin à un déplacement du débat public : on parlera moins de « contenus générés par IA » et davantage de « mondes générés par IA », avec toutes les questions éthiques, économiques et culturelles que cela implique.
Le metaverse n’a donc pas échoué. Il a simplement été mal compris, mal nommé, mal incarné. Ce que nous voyons émerger aujourd’hui avec les world models confirme une intuition plus ancienne : pour penser, créer et agir différemment, il faut des mondes. Qu’ils soient physiques, numériques ou mentaux. Et si l’intelligence artificielle est en train de franchir un seuil, ce n’est pas parce qu’elle parle mieux que nous, mais parce qu’elle commence, enfin, à comprendre dans quel monde elle parle.
Je suis conférencière et consultante. Je vous accompagne dans la compréhension du monde qui change via des conférences et ateliers pédagogiques de sensibilisation, et d’aide dans la prise en main des outils d’IA Générative.