Comprendre les constats qui fondent la régulation européenne
Chaque texte étudié dans ce chapitre agit sur un levier spécifique de l’économie de l’attention :
Ces textes ne sont pas apparus par hasard. Ils s’appuient sur des constats précis, issus de travaux scientifiques, sanitaires et sociaux.
Avant d’aborder le Digital Services Act (DSA), il est essentiel de comprendre sur quels constats ce texte s’appuie.
En Europe, et en particulier en France, la régulation des plateformes numériques ne s’est pas construite en réaction idéologique aux écrans, mais à partir d’analyses scientifiques, sanitaires et sociales.
Le rapport Enfants et écrans, à la recherche du temps perdu est le fruit des travaux de la Commission écrans, une commission d’expert·es indépendant·es chargée d’évaluer l’impact des écrans sur les enfants et les adolescent·es.
Le rapport formule 29 propositions structurées autour de 6 grands axes :
Il ne constitue pas un cas isolé : il s’inscrit dans une convergence de diagnostics portés par de nombreuses institutions scientifiques, sanitaires et de régulation.
Un diagnostic central : le problème n’est pas « les écrans », mais le système
Comme le soulignent à la fois la Société française de pédiatrie et le rapport Enfants et écrans, à la recherche du temps perdu, les écrans ne sont ni entièrement bénéfiques, ni intrinsèquement nocifs.
Ils peuvent favoriser l’accès à l’information, la socialisation ou certaines formes d’apprentissage. En revanche, les risques apparaissent lorsque les usages deviennent excessifs ou mal encadrés.
Une convergence internationale se dessine : au Royaume-Uni, les travaux parlementaires sur la régulation des réseaux sociaux et le Age-appropriate design code reconnaissent eux aussi les effets positifs des réseaux sociaux, tout en alertant sur les risques liés à la comparaison sociale, à la pression des normes et à l’exposition à des contenus inadaptés.
Ces différents travaux mettent ainsi en évidence que le problème ne réside pas dans des usages ponctuels ou isolés, mais dans les mécanismes qui structurent et orientent les usages numériques. Ce sont avant tout des choix de design, conçus pour capter et maintenir l’attention de l’utilisateur·rice le plus longtemps possible, qui concentrent les principaux risques.
Le rapport insiste également sur un point clé :
Les usages problématiques ne sont pas des dérives imprévisibles, mais des effets anticipables d’un modèle économique qui amène certains choix de design.
Des vulnérabilités différenciées selon les profils
Le rapport montre que les risques liés aux usages numériques varient fortement selon de nombreux facteurs :
Le Haut Conseil de la Famille, de l’Enfance et de l’Âge (HCFEA) souligne notamment que les adolescent·es ayant un niveau de bien-être plus élevé utilisent en moyenne moins les réseaux sociaux, et que les symptômes dépressifs peuvent prédire une utilisation future plus intensive, en particulier chez les filles.
Cette diversité des situations conduit à une conclusion claire : on ne peut pas penser à une régulation uniforme, car tous les utilisateur·rices ne sont pas exposé·es de la même manière aux mécanismes de captation de l’attention.
La protection des mineur·es dès la conception des services
La CNIL adopte une position cohérente avec ces constats. Elle rappelle que les mineur·es ne sont pas des utilisateur·rices comme les autres et publie des recommandations claires :
À retenir

