Quand le design pense à notre place : algorithmes, bulles de filtre et biais cognitifs
La création des « bulles de filtre »
Comme nous l’avons déjà évoqué, nous n’accédons plus à une information neutre ou universelle, mais à un contenu façonné par les algorithmes de recommandation.
À faire avec les élèves
En classe, invitez les élèves à comparer les fils d’actualité ou les suggestions YouTube de deux personnes différentes. Cette observation leur permettra de comprendre que les plateformes ne montrent pas la même réalité à tout le monde, mais une version du monde façonnée par les algorithmes de recommandation. Invitez-les ensuite à réfléchir collectivement autour des risques que représente cette pratique.
C’est ce phénomène qu’Eli Pariser, militant et entrepreneur américain, a théorisé en 2011 dans son ouvrage The Filter Bubble. Il y décrit comment Google, YouTube, Amazon ou Facebook créent pour chaque utilisateur un univers d’information unique.
Eli Pariser définit les bulles de filtre, que d’autres sociologues nomment « chambres d’écho », comme des “univers uniques d’information”. Chaque utilisateur accéderait à une version significativement différente du web. Cela explique pourquoi deux utilisateurs suivant les mêmes comptes peuvent ainsi se voir proposer des contenus radicalement différents.
Selon lui, les algorithmes de recommandation installent chaque individu dans une bulle algorithmique optimisée pour ses goûts, ses croyances et ses habitudes. Le fil d’actualité se transforme en un miroir idéologique : les points de vue opposés deviennent rares, voire invisibles. Non pas par censure, mais parce qu’ils sont statistiquement moins pertinents pour retenir l’attention de l’utilisateur, et donc moins diffusés par les algorithmes.
Cependant, cela ne signifie pas que les utilisateurs sont automatiquement enfermés dans des bulles de filtre. Ce phénomène résulte également de mécanismes cognitifs internes.
Pour aller plus loin, cliquez ici.
Le biais de confirmation, amplifié par les plateformes
L’impact des algorithmes de recommandation est d’autant plus marqué qu’ils s’appuient sur un biais cognitif profondément enraciné : le biais de confirmation. Il s’agit de notre tendance naturelle à rechercher, croire et mémoriser les informations qui confirment ce que nous pensons déjà, tout en ignorant ou minimisant celles qui contredisent nos opinions.
Les algorithmes de recommandation, conçus pour optimiser l’engagement, peuvent involontairement amplifier ce biais. En suggérant des contenus proches de ceux déjà consultés, ils renforcent certaines croyances et limitent l’exposition à des perspectives divergentes. Par exemple, visionner une vidéo climatosceptique augmente la probabilité de se voir recommander d’autres contenus similaires.
Cela ne signifie pas nécessairement que les plateformes promeuvent activement ces idées, mais leur logique de personnalisation peut conduire à une forme d’enfermement informationnel.
Le phénomène s’est accentué ces dernières années, en partie en raison des progrès rapides de l’intelligence artificielle : les algorithmes sont désormais capables de cerner les préférences d’un utilisateur en quelques secondes.
L’homophilie : quand nos cercles influencent nos opinions
À ces mécanismes s’ajoute un autre phénomène bien documenté en sciences sociales : l’homophilie.
À vous de jouer !
Que désigne le concept d’homophilie ?
A. La tendance à éviter les sources d’information jugées peu fiables.
B. La propension à fréquenter des personnes qui nous ressemblent, que ce soit par nos idées, nos centres d’intérêt, notre origine sociale ou nos habitudes.
C. Le rejet systématique des individus exprimant des opinions opposées.
Conséquences : désinformation et clivage
En croisant plusieurs dynamiques – le biais de confirmation, l’homophilie et le filtrage algorithmique des contenus –, les plateformes numériques contribuent à créer un environnement informationnel appauvri, où la diversité des points de vue est moins visible. Sans pour autant parler de polarisation, on observe une forme de clivage progressif entre groupes d’utilisateurs exposés à des univers informationnels distincts.
La consultation répétée de contenus politiquement orientés sur les réseaux sociaux renforce non seulement les convictions préexistantes, mais peut aussi alimenter l’hostilité envers les opinions adverses.
Cela ne signifie pas que toutes les plateformes ou tous les utilisateurs sombrent dans un repli extrême. Mais dans certaines zones du débat public, ces mécanismes peuvent contribuer à cristalliser les positions, à radicaliser les échanges, et à renforcer des clivages idéologiques plus marqués.
Lorsqu’il dépasse les comportements individuels et devient structurel, le repli informationnel peut, à terme, fragiliser le tissu social et démocratique. Il rend plus difficile l’émergence d’un espace commun de discussion, pourtant essentiel à la vitalité démocratique. Il peut également affaiblir la confiance envers les institutions et accroître la défiance à l’égard du journalisme, créant un terrain plus favorable à la circulation de théories complotistes ou à l’émergence de discours plus radicaux.
Ces dynamiques sont particulièrement visibles dans le champ politique. Les contenus à visée politique, souvent conçus pour maximiser l’engagement émotionnel, exploitent ces vulnérabilités en renforçant les oppositions et en accentuant les clivages. Il ne s’agit pas d’un processus systématique, mais d’une tendance observée dans certains contextes, notamment en période électorale ou de forte tension sociale.
Cas d’études récents : les élections en Roumanie
Cette dynamique a trouvé une illustration marquante lors de l’élection présidentielle roumaine de novembre 2024.
Le candidat Călin Georgescu, figure jusque-là marginale de l’extrême droite, est arrivé en tête du premier tour avec 23 % des suffrages, en s’appuyant sur une campagne très virale et émotionnellement chargée, spécifiquement conçue pour exploiter les mécanismes algorithmiques des plateformes.
Ses contenus ont été largement mis en avant auprès d’audiences sensibles à ce type de discours, amplifiant leur visibilité et leur portée. Sans manipulation directe, le biais de confirmation combiné à la logique de recommandation algorithmique a mécaniquement renforcé l’adhésion à ses idées.
Face à l’ampleur du phénomène, et dans un climat de soupçons d’ingérence étrangère, les autorités roumaines ont pris une décision sans précédent : l’annulation du scrutin, en invoquant des doutes sur l’équité du processus électoral et la manipulation des citoyens.
Face à ces dérives possibles, il devient essentiel de penser une régulation adaptée aux logiques propres aux environnements numériques. C’est dans ce contexte que se développe une législation européenne et nationale de plus en plus structurée, visant à encadrer les plateformes numériques, pour protéger les utilisateurs.
