Une table ronde particulièrement stimulante, réunissant Gilles Babinet et Cédric O a mis en lumière deux vérités simples mais essentielles :

  1. L’intelligence artificielle (IA) ne se limite pas à un enjeu technologique. Elle est politique, sociétale, cognitive, existentielle.
  2. Dans ce domaine, la posture binaire – technophilie naïve ou technophobie archaïque – ne tient plus : il faut adopter une posture de responsabilité lucide, collective.

L’IA bouleverse tout : la façon dont nous travaillons, apprenons, décidons, créons. Elle touche non seulement les gestes, mais aussi les pensées. Elle n’est ni un outil parmi d’autres, ni une mode passagère. Elle est une rupture anthropologique. Et face à une rupture de cette nature, la peur n’est pas une faiblesse. Elle est un signal.

On se trompe profondément quand on caricature les inquiétudes autour de l’IA comme de la nostalgie ou du rejet du progrès. Nous n’avons pas peur d’un logiciel plus rapide ou d’une application plus performante. Nous avons peur d’une technologie qui touche à ce qui nous construisait comme humains : notre capacité à penser seul, à décider, à créer, à transmettre, à douter, à apprendre, à interpréter le monde. Quand une machine commence à produire du texte, des images, des décisions médicales, des diagnostics juridiques, du code, de la musique ou des idées, ce qui vacille n’est pas une industrie. C’est une représentation de nous-mêmes.

Cette peur est donc rationnelle. Elle l’est d’autant plus que, pour la première fois dans l’histoire industrielle, l’automatisation ne concerne pas uniquement le geste ou la force physique, mais le raisonnement, l’analyse, la créativité. Nous sommes entrés dans une ère où l’intelligence devient partiellement externalisable. Selon l’OCDE et le FMI, entre un quart et 40 % des emplois mondiaux pourraient être affectés par l’IA à des degrés divers, non pas nécessairement supprimés, mais transformés dans leur contenu même. Dans des secteurs autrefois considérés comme protégés – finance, droit, médecine, éducation, journalisme – l’IA est déjà en train de modifier la façon de produire de la valeur. Pas demain. Maintenant.

La tentation est alors double. Certains s’abandonnent à une technophilie naïve, presque religieuse. Ils parlent d’IA comme d’un nouveau messie : elle soignerait, réparerait, déciderait mieux que nous, optimiserait nos existences, rendrait obsolètes les conflits, les lenteurs, les incertitudes. D’autres adoptent une technophobie de principe, dénonçant une « machine contre l’homme », une intelligence froide, dangereuse, déshumanisante. Ces deux récits se font face dans un combat stérile. Mais ils ont un point commun : ils exonèrent l’humain de sa responsabilité. Ils déplacent le pouvoir vers la technologie, soit pour s’y soumettre, soit pour la rejeter.

La véritable question n’est pas : « l’IA est-elle bonne ou mauvaise ? », mais plutôt « que ferons-nous de cette puissance nouvelle, et qui décidera à notre place si nous ne la prenons pas en main ? »

Car il faut être lucide : chaque système d’intelligence artificielle est structuré par une vision du monde. Par la culture de ses concepteurs. Par leurs priorités économiques. Par leur idéologie, qu’elle soit revendiquée ou implicite. Les modèles développés aux États-Unis, en Chine ou en Europe ne reflètent pas la même conception de la liberté, de l’autorité, de l’individu, du collectif, de la vérité. Utiliser une IA, c’est déjà accepter une grammaire du réel qui n’est pas neutre.

Et pourtant, nous continuons à parler d’ »outils », comme si une technologie capable d’analyser, synthétiser, anticiper, orienter et générer du contenu à l’échelle de milliards de données n’était qu’un stylo un peu plus sophistiqué. Cette minimisation est dangereuse. Elle empêche un vrai débat démocratique. Elle empêche une vraie stratégie collective. Elle empêche une vraie pédagogie.

C’est là que l’aveuglement devient irresponsable.

Refuser l’IA en bloc ne la fera pas disparaître. Il suffit d’observer la vitesse de diffusion de ChatGPT, Claude, Gemini ou Midjourney pour comprendre qu’il ne s’agit pas d’une adoption marginale, mais d’un basculement massif. En 2024, ChatGPT est devenu l’application grand public à la croissance la plus rapide de l’histoire. Des millions d’élèves, d’étudiants, d’avocats, de médecins, de créatifs, de cadres, d’entrepreneurs l’utilisent quotidiennement. Nous. Souvent sans formation. Sans cadre. Sans prise de recul.

À l’inverse, s’abandonner aveuglément à ces systèmes au nom de la performance ou du « gain de productivité » est tout aussi dangereux. Des universités américaines ont déjà alerté sur l’affaiblissement possible de certains mécanismes cognitifs (mémorisation, esprit critique, formulation personnelle) quand l’IA est utilisée comme béquille permanente plutôt que comme outil d’augmentation réfléchi. Des chercheurs en neurosciences cognitives, comme ceux du MIT ou de Stanford, soulignent que le cerveau, pour se structurer, a besoin d’effort, d’erreur, de friction intellectuelle. Sans cela, il s’atrophie. Comme un muscle non sollicité.

L’enjeu n’est donc pas uniquement économique ou industriel. Il est profondément humain.

Et la France, dans tout cela ? Elle se trouve à un carrefour.

Elle est à la fois en retard dans certaines infrastructures, prudente dans sa culture politique, brillante dans ses cerveaux, mais divisée dans sa capacité à projeter un futur clair. Elle régule, là où d’autres investissent. Elle critique, là où d’autres expérimentent. Elle craint, là où d’autres testent. Et pendant que le débat reste souvent théorique, la réalité avance sans elle.

Le vrai sujet n’est pas de savoir si la France va « rater le train de l’IA ». Il est de savoir si elle est capable d’entrer dans cette révolution avec autre chose qu’un mélange de peur et d’arrogance défensive. Si elle peut proposer une voie singulière, qui ne soit ni celle de la démesure américaine, ni celle du contrôle massif chinois, mais une voie européenne fondée sur la conscience, la pensée critique, la culture, l’éthique, la relation à l’autre.

Et peut-être que l’enjeu le plus urgent est de cesser de parler uniquement d’IA en termes d’emplois perdus ou de gains économiques, pour recommencer à en parler en termes de sens, de société, de responsabilité, de transmission.

Nous devons apprendre non pas à craindre l’IA, mais à la comprendre. Non pas à la sacraliser, mais à la questionner. Non pas à la subir, mais à l’inscrire dans un projet commun.

La peur est un réflexe sain face à l’inconnu. Mais dans ce moment historique précis, c’est la lucidité qui doit prendre le relais. Parce qu’au fond, le vrai danger n’est pas l’IA. Le vrai danger, c’est notre passivité. À ne pas l’utiliser, à ne pas la comprendre, nous acceptons déjà, silencieusement, notre propre effacement.

Je suis conférencière et consultante. Je vous accompagne dans la compréhension du monde qui change via des conférences et ateliers pédagogiques de sensibilisation, et d’aide dans la prise en main des outils d’IA Générative.

🗓 Exemples de thématiques conférences & ateliers IA

  • De la plume au prompt : quand l’IA bouscule nos métiers, nos récits, nos pratiques
  • L’intelligence artificielle au service de l’intelligence humaine
  • IA : progrès technologie ou déclin relationnel ?
  • L’IA crée-t-elle de l’art ?
  • Transformation RH à l’ère de l’IA
  • Santé demain : la transformation de la relation patients / médecins à l’ère des nouvelles technologies