L’interdiction des réseaux sociaux en Australie : ce que dit vraiment le rapport — et ce que n’en dit pas le Courrier International

image_pdf image_print

Source : eSafety Commissioner, « Under the new age restrictions: Early insights from Australian parents », mars 2026 (N = 898 parents, enfants 8-15 ans, janv.-fév. 2026)

Contexte

Courrier International a publié un article titrant que l’interdiction australienne des réseaux sociaux aux moins de 16 ans « ne fonctionne pas » (édition payante, non consultable librement). L’article semble faire la synthèse du rapport publié le 31 mars 2026 par la commission australienne pour la sécurité en ligne (eSafety Commissioner). Son titre est trompeur : le rapport eSafety ne se limite pas à des éléments négatifs. Voici ce qu’il dit réellement.

Ce que le rapport montre de positif

  • La proportion d’enfants titulaires d’un compte est passée de 49,7 % à 31,3 % en six semaines, soit une baisse de 37 %. Ce recul est documenté sur l’ensemble des dix plateformes concernées.
  • Dans 43,6 % des désactivations, c’est la plateforme elle-même qui a agi — sans démarche de l’enfant ni du parent. Les opérateurs sont donc techniquement capables de le faire à grande échelle. L’argument selon lequel la vérification d’âge serait techniquement impossible est empiriquement affaibli.
  • 36,3 % des comptes fermés l’ont été à l’initiative de l’enfant lui-même. Une fraction significative des adolescents accepte la légitimité de la mesure.
  • YouTube présente un taux d’efficacité nettement supérieur à TikTok, Instagram ou Snapchat. Cet écart démontre que des résultats bien meilleurs sont atteignables dès les premières semaines — et qu’on peut les exiger des plateformes moins performantes.

Ce qui ne fonctionne pas, ou mal

  • La principale raison de rétention de compte (66,8 %) est que la plateforme n’a tout simplement pas encore demandé à l’enfant de vérifier son âge. Ce n’est pas un échec de principe : c’est un déploiement trop lent, non contraint par un délai légal opposable.
  • Les systèmes de vérification ont enregistré l’âge de façon incorrecte dans 23,7 % des cas — un taux d’erreur technique élevé qui appelle un standard de fiabilité minimale.
  • Un enfant sur dix (10,3 %) a réussi à ouvrir un nouveau compte après désactivation de l’ancien. La fermeture des comptes existants ne suffit pas sans blocage de la réinscription.
  • 7,6 % des parents ont activement aidé leur enfant à contourner la restriction. Toute stratégie qui repose exclusivement sur la responsabilisation des familles trouve ici une limite documentée.

Ce qu’on ne sait pas encore

  • Si le report vers des plateformes non concernées (messageries, jeux en ligne, services communautaires) compense partiellement la réduction du temps d’écran global. Le rapport eSafety ne le mesure pas.
  • Si les effets observés à six semaines sont durables ou s’ils seront résorbés par la diffusion des techniques de contournement.
  • Et surtout : si la réduction du nombre de comptes sur ces plateformes se traduit par une amélioration de la santé mentale des jeunes — qui est l’objectif affiché. Le rapport eSafety ne mesure aucun indicateur de santé. C’est précisément là que le corpus scientifique sur les effets des écrans a quelque chose de décisif à apporter au débat.
Ce que le rapport dit — et le CI ne dit pas
 
« Ne fonctionne pas » et « fonctionne insuffisamment » ne sont pas la même chose politiquement. Si c’est un échec structurel, on abandonne l’idée. Si c’est une mise en œuvre insuffisante avec des causes identifiées et corrigeables, on améliore le dispositif.
 
Le rapport eSafety dit clairement la seconde chose : les plateformes peuvent désactiver des comptes à grande échelle, YouTube le fait mieux que les autres, donc les autres peuvent faire mieux. Ce n’est pas un échec de principe — c’est un calendrier trop lâche, des standards techniques insuffisants, et des plateformes qui ne jouent pas le jeu.
 
L’article du CI traduit un article australien pessimiste, qui est lui-même une lecture partielle du rapport. Il y a trois niveaux de filtre entre le document source et le titre du CI — chacun ayant amplifié la lecture « échec ».

Quatre implications pour la loi française

  • 1. Fixer un délai maximal contraignant d’application par les plateformes.
  • 2. Exiger un seuil de fiabilité minimale des systèmes de vérification d’âge (l’ARCOM devra définir ce référentiel).
  • 3. Prévoir le blocage de la réinscription, pas seulement la désactivation des comptes existants.
  • 4. Passer d’une obligation de moyens à une obligation de résultat, avec seuil auditable — comme le montre l’écart YouTube vs autres plateformes.
Note — Les auteurs s’expriment à titre personnel en tant que membres du collectif informel CoSE.
Les propos tenus n’engagent pas l’association ACoSE, sauf mention explicite contraire.