Hiérarchisation de l’information par le design

Comme nous l’avons déjà évoqué, l’accès à l’information en ligne repose largement sur des systèmes de recommandation.

Les contenus affichés dans un fil d’actualité, une page d’accueil ou une liste de suggestions sont sélectionnés et ordonnés à partir de nombreux critères.

Cela ne signifie pas que l’information est fausse ou manipulée, mais qu’elle est hiérarchisée : certains contenus sont rendus plus visibles que d’autres.

Le concept des « bulles de filtre »

À vous de jouer

Imaginez deux personnes utilisant la même plateforme, mais ayant des habitudes de navigation différentes. Selon vous, verront-elles les mêmes contenus apparaître dans leurs fils d’actualité ou leurs suggestions ?

Quels effets cela peut-il avoir sur la manière dont nous percevons l’actualité, les opinions ou les débats de société ?

Cette question renvoie à un concept souvent évoqué pour décrire le fonctionnement des plateformes : celui des bulles de filtre.

Le terme a été popularisé en 2011 par Eli Pariser, militant et entrepreneur américain, dans son ouvrage The Filter Bubble. Il décrit l’idée selon laquelle chaque personne accéderait à un environnement informationnel personnalisé, différent de celui des autres.

Cependant, les recherches récentes montrent que les utilisateur·rices ne sont pas automatiquement enfermé·es dans des bulles informationnelles étanches.

Des travaux en sociologie du numérique montrent que l’effet des algorithmes sur l’exposition aux opinions opposées reste relativement limité. Selon André Gunthert, historien français, « le système de sélection de Facebook ne modifie que d’environ 1 % l’exposition aux contenus politiques de camps opposés ». De son côté, le sociologue Dominique Cardon souligne que « la bulle, c’est souvent nous qui la créons », notamment à travers nos choix de relations, de sources d’information et de centres d’intérêt.

En ligne, les utilisateur·rices peuvent au contraire être exposé·es à une diversité de points de vue parfois plus large que dans leurs cercles hors ligne.

Le phénomène ne relève donc pas d’un enfermement strict, mais plutôt d’une mise en visibilité différenciée des contenus, combinée à des dynamiques sociales déjà existantes.

L’un de ces mécanismes sociaux est le biais de confirmation.

Le biais de confirmation, amplifié par les plateformes

Il s’agit de la tendance à accorder plus d’attention, à croire et à mémoriser les informations compatibles avec ses convictions, tout en étant plus critique ou distant face aux informations contradictoires.

Les plateformes ne créent pas ce biais et ne l’amplifient pas mécaniquement.
En revanche, en cherchant à proposer des contenus jugés pertinents ou engageants, leurs systèmes de recommandation peuvent renforcer certaines croyances déjà présentes, en rendant plus visibles des contenus familiers ou appréciés.

Par exemple, visionner une vidéo climatosceptique augmente la probabilité de se voir recommander d’autres contenus similaires.

L’homophilie : le poids des cercles relationnels

À ces mécanismes s’ajoute un autre phénomène bien documenté en sciences sociales : l’homophilie.

À vous de jouer

Veuillez répondre à la question suivante.

Que désigne le concept d’homophilie ?

a) La tendance à éviter les sources d’information jugées peu fiables.

b) La propension à fréquenter des personnes qui nous ressemblent, que ce soit par nos idées, nos centres d’intérêt, notre origine sociale ou nos habitudes.

c) Le rejet systématique des individus exprimant des opinions opposées.

b) La propension à fréquenter des personnes qui nous ressemblent, que ce soit par nos idées, nos centres d’intérêt, notre origine sociale ou nos habitudes.

Sur les plateformes, cette dynamique est amplifiée : nous interagissons majoritairement avec des profils similaires aux nôtres – ami·es, famille, groupes d’affinité – ce qui réduit la diversité des points de vue auxquels nous sommes exposés.

Résultat : l’utilisateur·rice évolue dans un environnement qui renforce l’illusion de consensus, l’impression que tout le monde partage des idées similaires.

Encore une fois, les plateformes ne créent pas cette dynamique, mais la rendent plus visible, notamment via les abonnements, les groupes ou les recommandations de comptes similaires.

Le rôle des algorithmes de recommandation : faire des choix de visibilité

Les algorithmes ne décident pas de ce que les utilisateur·rices doivent penser. Ils opèrent cependant des choix de hiérarchisation : certains contenus sont mis en avant parce qu’ils suscitent plus de réactions, de commentaires ou de partages.

Or, les recherches montrent que les contenus clivants et suscitant colère, indignation ou peur ont tendance à générer davantage d’engagement.

Une enquête menée par la Radio-Télévision Belge de la Communauté Française (RTBF) a mis en évidence le rôle que peut jouer l’algorithme de recommandation de TikTok dans l’orientation progressive des contenus proposés aux utilisateur·rices.

Dans cette investigation, des journalistes ont créé plusieurs comptes d’adolescents et adolescentes fictives afin d’observer comment l’algorithme faisait évoluer les recommandations au fil du temps. Les comptes ont d’abord interagi avec des contenus relativement neutres, liés par exemple à la musculation, au développement personnel ou à la séduction.

Après un certain nombre de visionnages et d’interactions, les journalistes ont constaté que les recommandations pouvaient progressivement évoluer vers des contenus plus idéologiques, notamment issus de la sphère dite masculiniste. Ces vidéos présentaient parfois des discours valorisant une vision stéréotypée des relations hommes-femmes ou relayant des figures influentes de ces mouvements.

L’enquête montre que ce basculement ne résulte pas d’une recherche explicite de la part de l’utilisateur·rice, mais d’un enchaînement de recommandations successives basé sur les contenus précédemment consultés et sur les interactions enregistrées par la plateforme.

Amnesty International a également alerté sur les effets possibles de la recommandation algorithmique de contenus émotionnels sur la santé mentale des jeunes usagers de TikTok. Pour consulter le rapport, cliquez ici

Conséquences des contenus clivants et émotionnellement chargé

Le problème ? En privilégiant ce type de contenus, non pas par intention idéologique, les recommandations algorithmiques peuvent :

  • Renforcer des oppositions
  • Durcir certaines perceptions
  • Et favoriser la circulation de fausses informations

Dans les contextes démocratiques contemporains, où l’accès à une information claire, complète et contextualisée est un enjeu central, cette surreprésentation des contenus clivants et émotionnels peut complexifier la compréhension des débats, sans pour autant déterminer mécaniquement les opinions ou les comportements électoraux.

À retenir

  • Les bulles de filtres est un concept à nuancer.
  • Les mécanismes sociaux (confirmation, homophilie) jouent un rôle central.
  • Les plateformes tendent à mettre en avant des contenus clivants ou émotionnels, car ils génèrent plus d’engagement.