On comprend très bien pourquoi l’idée revient.
Les signaux s’accumulent : anxiété, troubles du sommeil, harcèlement, sexualisation précoce, contenus violents, défis absurdes, dérives d’algorithmes, comparaison sociale permanente. Et cette impression partagée par des parents, des enseignants, des médecins : on a mis un supercalculateur de captation d’attention dans la poche d’enfants qui n’ont pas encore les défenses mentales pour y résister.
Donc, politiquement, l’interdiction est tentante : simple, nette, « protectrice ». En France, Emmanuel Macron pousse clairement vers une interdiction avant 15 ans, avec l’idée d’une application rapide. Et l’Australie est devenue l’exemple-moteur : une loi votée fin 2024, qui impose aux plateformes de prendre des “mesures raisonnables” pour empêcher les moins de 16 ans d’avoir un compte, avec sanctions pour les plateformes, sans pénaliser les jeunes ni les parents. La mesure est entrée en vigueur le 10 décembre 2025 et a déclenché une vague de fermetures de comptes et un débat massif sur l’« âge minimum » et la vérification d’âge.
Donc oui : le problème est réel. Mais interdire (ou “retarder l’accès”) est, à mon sens, une fausse bonne idée. Pas par idéologie pro-tech, par lucidité.
1) Une interdiction, c’est une réponse spectaculaire… à un problème structurel
Interdire avant 15 ans suppose qu’on sait répondre à trois questions simples.
1. Qu’est-ce qu’on interdit ? Les “réseaux sociaux” n’est pas une catégorie claire. TikTok n’est pas WhatsApp. YouTube n’est pas Discord. Un fil algorithmique n’est pas une messagerie. Même en Australie, il faut définir la liste des plateformes concernées et elle évolue.
2. Comment on l’applique ? L’interdiction n’est pas un panneau “sens interdit”. C’est un système de contrôle. Donc on arrive au point dur : la vérification d’âge. Parmi les solutions proposées, la reconnaissance faciale. Mouais… on en parle ci-dessous.
3. À quel prix (technique, social, démocratique) ? Car vérifier l’âge à grande échelle, c’est soit à partir du document d’identité (bonjour la centralisation de données sensibles), de la biométrie / estimation d’âge (bonjour les biais, les erreurs, l’acceptabilité), ou des solutions intermédiaires (bonjour la complexité, et les contournements).
L’Australie elle-même a dû cadrer le sujet via des approches “age assurance”, en rappelant que la contrainte vise les plateformes (pas les familles), preuve que c’est un sujet explosif.
Autrement dit : l’interdiction n’efface pas le problème, elle le déplace vers une infrastructure de contrôle.
2) Le cœur du problème n’est pas “l’accès”, c’est la fabrique de l’addiction
On parle comme si le danger venait du fait d’être “sur” un réseau. Mais le danger vient surtout de la manière dont ces produits sont conçus : scroll infini, autoplay, notifications calibrées, recommandations agressives, contenus courts à récompense rapide, logique de comparaison sociale, mécanismes de viralité et de polarisation.
Ce n’est pas un accident. C’est un modèle économique : l’économie de l’attention.
Interdire aux moins de 15 ans, c’est refuser de nommer l’essentiel : le problème n’est pas l’âge des utilisateurs, c’est l’architecture de captation.
Si tu veux protéger les jeunes, attaque la captation. Pas la date de naissance.
3) L’interdiction produit un effet pervers : clandestinité, contournement, silence
Dans la vraie vie, une interdiction massive crée rarement des “enfants protégés”. Elle crée souvent : des comptes “en âge adulte” (mensonge banal), des usages cachés, des plateformes moins régulées (effet “déport”), et surtout, moins de dialogue avec les adultes.
Et là, on perd. Parce que ce qui protège vraiment un adolescent, ce n’est pas une barrière théorique mais une capacité à reconnaître la manipulation, un vocabulaire pour dire ce qu’il vit, un adulte avec qui en parler sans honte. Or l’interdiction renforce exactement l’inverse : “tu n’as pas le droit”, donc “je ne te dirai pas”.
Les retours de terrain en Australie montrent déjà cette tension entre objectif de “détox” et contournements / effets sociaux.
4) Le paradoxe éducatif : on veut “protéger” en retirant l’entraînement
On ne prépare pas quelqu’un à un environnement à risque en le tenant à l’écart sans lui apprendre à s’y repérer. C’est comme refuser toute éducation sexuelle “pour protéger”, puis s’étonner de la vulnérabilité. Comme refuser toute éducation aux médias, puis s’étonner de la crédulité.
Le numérique est devenu un milieu social. On peut le regretter. Mais c’est factuel.
A mon sens, la question n’est pas : “comment interdire ?” C’est : comment former ? comment encadrer ? comment civiliser ?
5) L’argument philosophique (et politique) : une société mature ne gère pas ses peurs par la censure
Interdire rassure parce que ça donne le sentiment de reprendre la main. Mais une démocratie solide ne devrait pas répondre à une crise éducative par une solution uniquement répressive. Surtout quand elle touche un espace de sociabilité et d’expression.
Ce n’est pas “libertarien” de dire ça. C’est juste cohérent : si tu veux des citoyens capables, tu dois former leur jugement, pas uniquement réduire leur exposition.
On fait quoi à la place ?
Je n’ai pas la solution, mais quelques idées, qui n’ont rien d’original. Par exemple, on pourrait imaginer un “code de la route” du numérique, par âge :
- primaire : attention, émotions, images, pub
- collège : algorithmes, influence, harcèlement, intimité, réputation
- lycée : économie des plateformes, IA, manipulation, polarisation, identité
Pour les parents, une politique d’accompagnement (pas une injonction) via des ateliers simples, concrets, répétés, des guides pratiques par tranche d’âge, des propositions de règles domestiques réalistes : horaires, nuit, espaces communs, “pas de téléphone dans la chambre”.
Et surtout : aider les parents à se sentir légitimes. Le parent ne doit pas devenir ingénieur cybersécurité pour faire son travail.
Enfin, traiter le vrai angle mort : la responsabilité économique des plateformes dont le revenu dépend du temps passé et de l’activation émotionnelle.
Je ne défends pas les réseaux sociaux. Je défends l’idée qu’on ne protège pas durablement une génération avec un geste symbolique. Le débat ne devrait pas porter uniquement sur l’âge légal d’accès. Il devrait porter sur le type de numérique que nous acceptons de laisser structurer nos sociétés, et sur notre capacité à former des individus capables d’y évoluer sans s’y perdre.
Une société mature ne répond pas à une crise éducative par une solution uniquement répressive. Elle investit dans la compréhension, la transmission, la responsabilité partagée.
Je suis conférencière et consultante. Je vous accompagne dans la compréhension du monde qui change via des conférences et ateliers pédagogiques de sensibilisation, et d’aide dans la prise en main des outils d’IA Générative.