La législation au service du libre arbitre

Les interfaces, les algorithmes et les systèmes de recommandation sont au cœur des stratégies de captation de l’attention des plateformes.

Nous vous invitons à découvrir le cadre européen qui encadre désormais ces pratiques : le Digital Services Act (DSA).

Le Digital Services Act (DSA) est un règlement européen entré en vigueur en 2022 et pleinement applicable depuis février 2024.

Il complète le RGPD en s’attaquant non plus seulement aux données, mais au fonctionnement concret des plateformes : algorithmes de recommandation, interfaces, notifications, mise en avant des contenus.

Le DSA part d’un constat désormais largement partagé par les institutions scientifiques et sanitaires :

Les plateformes ne sont pas neutres, et leur design influence les comportements, l’attention et parfois la santé mentale.

Qui est concerné ?

Le DSA s’applique à tous les services numériques accessibles dans l’Union Européenne, qu’ils soient européens ou non. En revanche, les obligations varient selon la taille et l’impact du service.

Sont concernés notamment :

  • Les fournisseurs d’accès à Internet
  • Les marketplaces (places de marché en ligne)
  • Les services informatiques en nuage (cloud)
  • Les boutiques d’applications
  • Les plateformes de partage de contenus
  • Les plateformes de voyage et d’hébergement

Une attention particulière est portée aux très grandes plateformes et aux grands moteurs de recherche, désignés comme VLOPs (Very Large Online Platforms) et VLOSEs (Very Large Online Search Engines).

Depuis l’entrée en vigueur du DSA, 25 acteurs et actrices ont été officiellement classé·es dans ces catégories par la Commission européenne, sur la base d’un critère simple : atteindre plus de 45 millions d’usagers actifs mensuels dans l’Union européenne.

Ces plateformes, qui mettent en œuvre certains mécanismes pour capter l’attention de leurs utilisateur·rices, sont désormais soumises à des obligations spécifiques, notamment en matière de transparence algorithmique.

Les 19 premiers services identifiés dès l’adoption du règlement sont les suivants :

AliExpress, Amazon Store, Apple App Store, Bing, Booking.com, Facebook, Google Maps, Google Play, Google Search, Google Shopping, Instagram, LinkedIn, Pinterest, Snapchat, TikTok, Wikipedia, X (anciennement Twitter), YouTube et Zalando.

À cette liste se sont ajoutés récemment quatre sites à caractère pornographique (Pornhub, Stripchat, XVideos, XNXX) et deux marketplaces chinoises en forte croissance en Europe (Shein et Temu).

Transparence des algorithmes : rendre visible ce qui oriente l’attention

Le DSA impose aux grandes plateformes une transparence renforcée sur leurs algorithmes de recommandation. Concrètement, elles doivent expliquer, dans un langage compréhensible :

  • Pourquoi certains contenus apparaissent dans un fil d’actualité
  • Quels critères influencent les recommandations (popularité, interactions, centres d’intérêt, etc.)

À vous de jouer

Pour chaque affirmations, décidez si elle est vraie ou fausse. Vous découvrirez ensuite l’explication derrière chaque réponse.

Le DSA impose aux plateformes que le ciblage publicitaire basé sur les données des mineur·es soit interdit.

a) VRAI

b) FAUX

a) VRAI

Les plateformes doivent proposer une alternative : un fil chronologique sans personnalisation algorithmique.

a) VRAI

b) FAUX

a) VRAI

Les très grandes plateformes doivent proposer un mode d’affichage alternatif : un fil chronologique ou une recherche personnalisée. Cela permet à l’utilisateur·rice de désactiver les systèmes conçus pour maximiser l’engagement, et de reprendre la main sur ce qu’il voit.

Lutte contre les interfaces manipulatrices

« Les fournisseurs de plateformes en ligne ne conçoivent pas, n’organisent pas et n’exploitent pas leurs interfaces en ligne […] d’une manière qui, délibérément ou dans les faits, trompe ou manipule les destinataires du service, en altérant ou en compromettant leur autonomie, leur capacité de décision ou leurs choix. » – Article 25 du DSA.

Plus simplement, le DSA interdit l’usage de dark patterns, ces techniques de conception trompeuses destinées à influencer ou manipuler les choix de l’utilisateur·rice.

Pour en savoir plus sur les dark patterns, veuillez cliquer ici pour accéder au chapitre 2 du module 2.

Les pratiques manipulatoires restent pourtant fréquentes. En 2024, la plateforme Temu a été condamnée à une amende d’environ 40 millions d’euros pour l’usage de dark patterns visant à pousser les utilisateur·rices à accepter des offres ou à effectuer des achats involontaires.

Ces décisions montrent que le design des interfaces n’est plus considéré comme neutre : il peut désormais être sanctionné lorsqu’il influence de manière trompeuse les choix des utilisateur·rices.

En clair, une plateforme ne peut plus :

  • Cacher une option importante
  • Rendre un refus plus compliqué qu’une acceptation
  • Jouer sur les couleurs, la taille ou le vocabulaire pour orienter un choix

En rendant plus simples et visibles certaines actions, le DSA entend garantir un véritable libre arbitre numérique.

À vous de jouer

Observez une bannière de cookies (sur un site que vous consultez habituellement ou à partir d’une capture d’écran) et identifiez ce qui influence votre choix.

Prenez quelques instants pour vous poser les questions suivantes :

Où votre regard se pose-t-il en premier ?

Qu’est-ce qui vous incite davantage à cliquer sur « Accepter » plutôt que sur « Refuser » ?

Quels éléments du design (taille, couleur, position) ou du langage orientent votre décision ?

Sur mobile, certaines publicités utilisent des mécanismes similaires. Par exemple, un bouton « Fermer » peut être volontairement discret (petite croix en haut de l’écran), tandis qu’une grande zone centrale est cliquable et redirige vers une page de téléchargement.

Résultat : un clic involontaire devient plus probable, notamment en raison de la position du pouce sur l’écran.

Ce type de design exploite des contraintes physiques, telles que la taille de l’écran et l’ergonomie, pour orienter le comportement.

Modération des contenus : encadrer la viralité

Le DSA renforce aussi les obligations en matière de modération des contenus.

La modération ne sert pas à censurer toute critique mais à repérer et traiter les contenus problématiques (violence, haine, désinformation, etc.).

Les algorithmes de modération peuvent :

  • Déréférencer un contenu
  • Le bloquer temporairement
  • Ou le transmettre à un modérateur humain

À vous de jouer

Selon vous, pourquoi l’humain reste indispensable ?

a) Parce que les algorithmes ne fonctionnent que pendant un temps limité avant de devenir inefficaces.

b) Parce que les algorithmes ont du mal à comprendre l’ironie.

c) Parce que les algorithmes peinent à saisir le contexte culturel.

b) et c)

L’humain comprend ce qui n’est pas explicitement dit : l’ironie, les sous-entendus et les références culturelles. Ces éléments reposent sur des normes sociales, une histoire commune et des intentions implicites que les algorithmes ne font qu’imiter statistiquement, sans réelle compréhension.

N’hésitez pas à vous appuyer sur l’expérience concrète des élèves : c’est souvent le meilleur point d’entrée pour aborder les enjeux de la modération. Vous pouvez par exemple leur demander :

Ont-ils et elles déjà été exposées à un contenu choquant, violent, haineux ou dérangeant ? Comment ont-il·elles réagi sur le moment ?

Ont-ils et elles déjà utilisé le bouton de signalement ? Si non, qu’est-ce qui les en a empêchées ?

Pensent-ils et elles que les algorithmes et les outils de modération sont vraiment utiles et nécessaires ?

Comme évoqué précédemment, les algorithmes de recommandation tendent à mettre en avant les contenus générant le plus d’engagement, ce qui peut favoriser la diffusion de contenus illicites ou trompeurs. Le DSA reconnaît les risques associés à ces dynamiques de visibilité.

Pour y répondre, il impose plusieurs obligations aux plateformes, notamment :

  • La mise en place d’outils de signalement clairs, simples et directement accessibles, par exemple via un bouton intégré à chaque publication.
  • L’obligation de traiter rapidement les contenus manifestement illégaux, tels que l’incitation à la haine, l’apologie du terrorisme, ou la désinformation portant atteinte à la santé ou à la sécurité publique.
  • Un devoir de transparence sur les décisions de modération : les plateformes doivent justifier les mesures prises, y compris lorsqu’elles choisissent de laisser un contenu en ligne malgré un signalement.

L’objectif est de mieux encadrer les logiques de diffusion et de responsabiliser les plateformes quant aux effets de leurs choix algorithmiques.

Vers un encadrement renforcé du design numérique

L’Union européenne prépare actuellement un nouveau texte : le Digital Fairness Act (DFA).

Ce projet part d’un constat clair : certaines pratiques numériques échappent encore à l’encadrement existant, notamment lorsqu’elles exploitent les biais cognitifs ou rendent les choix des utilisateur·rices volontairement complexes.

Il viserait ainsi à renforcer la protection des consommateurs et consommatrices face aux pratiques numériques trompeuses, en particulier :

  • Les dark patterns
  • Les mécanismes de manipulation ciblant des publics vulnérables, notamment les mineur·es
  • Le manque de transparence sur les contenus sponsorisés ou le marketing d’influence

Il marque une évolution importante dans la régulation : il ne s’agit plus seulement d’encadrer les actions des plateformes, mais aussi la manière dont leur design influence et oriente les comportements.

À retenir

  • Les très grandes plateformes ont des obligations renforcées
  • Le DSA lutte contre les dark patterns afin de permettre des choix clairs et équilibrés.
  • La modération des contenus combine algorithmes et intervention humaine.
  • Il vise à redonner un libre arbitre numérique aux utilisateurs·rices.