Le DSA : la transparence des recommandations algorithmiques

Le DSA (Digital Services Act), entré en vigueur en 2022 et pleinement applicable depuis février 2024, est étroitement lié aux mécanismes de captation de l’attention. Il impose une série d’obligations qui régulent le fonctionnement des plateformes, notamment dans la manière dont elles utilisent les algorithmes de recommandation, les notifications, ou encore les interfaces conçues pour maximiser le temps passé en ligne.

Qui est concerné ?

Le DSA concerne tous les acteurs qui fournissent des services numériques accessibles dans l’Union européenne, qu’ils soient établis en Europe ou ailleurs dans le monde. Toutefois, il ne leur impose pas les mêmes obligations : une hiérarchie des responsabilités est établie en fonction de la taille, de la nature du service et de son impact sur la société.

Le texte distingue ainsi plusieurs catégories d’acteurs, parmi lesquels :

  • Les fournisseurs d’accès à Internet
  • Les marketplaces (places de marché en ligne)
  • Les services informatiques en nuage (cloud)
  • Les boutiques d’applications
  • Les plateformes de partage de contenus
  • Les plateformes de voyage et d’hébergement
  • Les très grandes plateformes en ligne et très grands moteurs de recherche, appelés VLOPs (Very Large Online Plateforms) et VLOSEs (Very Large Online Search Engines)

Depuis l’entrée en vigueur du DSA, 25 acteurs ont été officiellement désignés comme VLOPs ou VLOSEs par la Commission européenne, sur la base du critère de fréquentation : plus de 45 millions d’utilisateurs actifs mensuels dans l’Union Européenne.

Les 19 premiers services identifiés dès l’adoption du règlement sont les suivants :

AliExpress, Amazon Store, Apple App Store, Bing, Booking.com, Facebook, Google Maps, Google Play, Google Search, Google Shopping, Instagram, LinkedIn, Pinterest, Snapchat, TikTok, Wikipedia, X (anciennement Twitter), YouTube et Zalando.

À cette liste se sont ajoutés récemment six autres acteurs : quatre sites à caractère pornographique (Pornhub, Stripchat, XVideos, XNXX) et deux marketplaces chinoises en forte croissance en Europe (Shein et Temu).

Ces plateformes, qui mettent en œuvre certains mécanismes pour capter l’attention de leurs utilisateurs, sont désormais soumises à des obligations spécifiques, notamment en matière de transparence algorithmique.

Obligation de transparence sur les algorithmes de recommandation

La transparence algorithmique désigne l’obligation, pour une organisation, de rendre compréhensibles et accessibles le fonctionnement de ses algorithmes, notamment ceux qui influencent les décisions ou les contenus proposés aux utilisateurs.

Cette exigence constitue l’un des piliers fondamentaux du DSA et s’inscrit dans la continuité du droit à l’information, déjà garanti par le RGPD. Les plateformes ont désormais l’obligation d’être transparentes sur le fonctionnement de leurs algorithmes, en particulier ceux qui structurent les recommandations de contenus : publications dans un fil d’actualité, vidéos suggérées, résultats de recherche, etc.

Elles doivent être en mesure d’expliquer clairement, dans un langage accessible, non technique, quels critères influencent ces choix automatisés.

À vous de jouer ! 

Pour chaque affirmations, décidez si elle est vraie ou fausse. Vous découvrirez ensuite l’explication derrière chaque réponse.

A. Le DSA impose aux plateformes que le ciblage publicitaire basé sur les données des mineurs soit interdit.

VRAI

B. Les plateformes doivent proposer une alternative : un fil chronologique sans personnalisation algorithmique.

VRAI

Dans une logique de renforcement du libre arbitre, le DSA impose également aux très grandes plateformes l’obligation de proposer une alternative sans personnalisation algorithmique.

Concrètement, cela signifie que les utilisateurs doivent avoir la possibilité de désactiver les systèmes de recommandation basés sur leurs données personnelles et opter pour un affichage neutre et chronologique, où les contenus ne sont pas triés selon leur profil ou comportement antérieur.

Ce mode d’affichage alternatif vise à offrir une expérience plus transparente et prévisible, permettant à l’utilisateur de reprendre le contrôle sur son environnement numérique, en limitant les biais liés à la personnalisation algorithmique.

Dans une logique de renforcement du libre arbitre, le DSA impose également aux très grandes plateformes l’obligation de proposer une alternative sans personnalisation algorithmique.

Concrètement, cela signifie que les utilisateurs doivent avoir la possibilité de désactiver les systèmes de recommandation basés sur leurs données personnelles et opter pour un affichage neutre et chronologique, où les contenus ne sont pas triés selon leur profil ou comportement antérieur.

Ce mode d’affichage alternatif vise à offrir une expérience plus transparente et prévisible, permettant à l’utilisateur de reprendre le contrôle sur son environnement numérique, en limitant les biais liés à la personnalisation algorithmique.

Lutte contre les interfaces manipulatrices

L’article 25 du DSA stipule que « les fournisseurs de plateformes en ligne ne conçoivent pas, n’organisent pas et n’exploitent pas leurs interfaces en ligne […] d’une manière qui, délibérément ou dans les faits, trompe ou manipule les destinataires du service, en altérant ou en compromettant leur autonomie, leur capacité de décision ou leurs choix ».

Plus simplement, le DSA interdit l’usage de dark patterns, ces techniques de conception trompeuses destinées à influencer ou manipuler les choix de l’utilisateur.

L’un des objectifs du DSA est de rétablir une prise de décision autonome et éclairée, en garantissant que toutes les options soient présentées de manière lisible et accessible. Il impose ainsi aux plateformes une responsabilité accrue dans la conception des interfaces et des parcours utilisateurs.

En rendant plus simples et visibles certaines actions — comme refuser un traitement de données ou désactiver une fonctionnalité par défaut —, le DSA entend limiter les mécanismes de manipulation invisibles et favoriser un véritable libre arbitre numérique.

À faire avec les élèves

En classe, vous pouvez proposer aux élèves d’analyser une bannière de cookies afin d’identifier ce qui influence leur choix. Demandez-leur notamment : Où leur regard se pose-t-il en premier ? Qu’est-ce qui incite davantage à cliquer sur “Accepter” que sur “Refuser” ? Quels éléments du design (taille, couleur, position) ou de langage influencent leur décision ?

Modération des contenus

À vous de jouer ! 

Pour mieux comprendre le rôle et les enjeux de la modération de contenus, répondez à ce QCM.

La modération en ligne sert principalement à :

A. Mettre en avant les contenus les plus divertissants pour augmenter le temps passé sur la plateforme.

B. Repérer et traiter les contenus problématiques (violence, haine, spam, etc.)

C. Supprimer systématiquement tout contenu qui critique la plateforme.

Réponse B

Lorsqu’un contenu problématique est identifié, l’algorithme peut soit déréférencer, soit bloquer temporairement, soit transmettre à un modérateur humain pour vérification.

Pourquoi la modération automatique ne peut-elle pas être fiable à 100 % ?

A. Parce que les algorithmes ne comprennent pas l’humour, l’ironie ou le contexte culturel.

B. Parce que les plateformes ne souhaitent pas réellement modérer les contenus afin d’augmenter leur audience.

C. Parce que l’intelligence artificielle “se fatigue”, perd sa concentration et commet alors des erreurs, comme un humain.

Réponse A

Les systèmes de détection automatisée se basent principalement sur des mots-clés, des éléments visuels ou sonores. Ils peuvent difficilement saisir le second degré, l’ironie, le contexte culturel ou l’intention réelle d’un message.

C’est pourquoi l’intervention de modérateurs humains reste indispensable, afin d’interpréter correctement les contenus et d’éviter les erreurs de jugement.

À faire avec les élèves

N’hésitez pas à vous appuyer sur l’expérience concrète des élèves : c’est souvent le meilleur point d’entrée pour aborder les enjeux de la modération. Vous pouvez par exemple leur demander :

  • Ont-ils déjà été exposés à un contenu choquant, violent, haineux ou dérangeant ? Comment ont-ils réagi sur le moment ?
  • Ont-ils déjà utilisé le bouton de signalement ? Si non, qu’est-ce qui les en a empêchés ?
  • Pensent-ils que les algorithmes et les outils de modération sont vraiment utiles et nécessaires ?

Comme évoqué précédemment, les contenus choquants ou fortement émotionnels sont particulièrement efficaces pour capter l’attention des utilisateurs (cf. module 3). Ce type de contenu est souvent mis en avant par les algorithmes de recommandation, car il génère un fort taux d’engagement.

Le DSA reconnaît que cette dynamique peut avoir des effets néfastes, notamment en facilitant la diffusion de contenus haineux, violents ou trompeurs.

Pour y répondre, le DSA impose plusieurs obligations aux plateformes, notamment :

  • La mise en place d’outils de signalement clairs, simples et directement accessibles, par exemple via un bouton intégré à chaque publication.
  • L’obligation de traiter rapidement les contenus manifestement illégaux, tels que l’incitation à la haine, l’apologie du terrorisme, ou la désinformation portant atteinte à la santé ou à la sécurité publique.
  • Un devoir de transparence sur les décisions de modération : les plateformes doivent justifier les mesures prises, y compris lorsqu’elles choisissent de laisser un contenu en ligne malgré un signalement.

Ces dispositions visent à encadrer les logiques de viralité et à responsabiliser les plateformes sur les conséquences de leurs choix algorithmiques. Autrement dit, le succès viral ne peut plus justifier la mise en avant de contenus préjudiciables.

À retenir

  • Le DSA n’interdit pas aux plateformes de chercher à capter l’attention des utilisateurs. Cette logique reste au cœur de leur modèle économique.
  • Il encadre les grandes plateformes et renforce la transparence algorithmique, en complément du RGPD
  • Il interdit les dark patterns et renforce la modération des contenus illégaux, pour protéger les utilisateurs et garantir des choix numériques plus éclairés et plus autonomes.