Les algorithmes

Algorithmes et influence comportementale

« Pourquoi votre fil YouTube semble-t-il lire dans vos pensées ? »

« Combien de fois vos élèves regardent-ils une vidéo… puis vingt de plus ? »

Ces questions visent à éveiller la curiosité et à montrer que les plateformes ne réagissent pas seulement à l’attention : elles la façonnent. Le sujet est technique, mais aussi comportemental, émotionnel et éthique.

Un algorithme est un ensemble d’instructions codées servant à trier, recommander et classer le contenu. Il apprend en permanence à partir des interactions des utilisateur·ices.

  • Modèles de clics
  • Temps de visionnage et durée de session
  • Points de pause et vitesse de défilement
  • Likes, partages, ignorés

Ces systèmes optimisent pour une seule chose : maintenir l’engagement. Leur logique est commerciale : plus l’attention dure, plus la plateforme génère de valeur.

Analogie : pensez aux algorithmes comme des miroirs et des aimants invisibles — ils reflètent nos préférences tout en nous attirant vers ce qui nous retient le plus longtemps.

Prédiction et influence comportementale

Les algorithmes ne réagissent pas seulement à nos actions : ils prédisent ce que nous ferons ensuite. Ils anticipent nos choix et influencent subtilement notre parcours.

  • Mettre en avant du contenu émotionnellement engageant ou controversé
  • Suggérer automatiquement via l’autoplay ou des recommandations
  • S’adapter aux schémas qui prolongent le temps passé sur la plateforme

Ce que nous voyons n’est pas toujours ce que nous avons choisi : c’est ce que l’algorithme estime suffisant pour nous garder en ligne.

Maximiser le temps passé sur la plateforme

  • L’autoplay supprime les frictions
  • Le défilement infini rend l’arrêt plus difficile
  • Les recommandations s’intensifient au fil du temps

Cette mécanique crée une consommation passive : le système choisit, l’utilisateur·ice suit. L’intention personnelle s’efface derrière la logique algorithmique.

Effets sur l’autonomie et la perception

  • Perte d’autonomie : réactions plutôt qu’actions intentionnelles
  • Bulles de filtres : renforcement des croyances existantes
  • Amplification émotionnelle : colère, drame et nouveauté dominent souvent

Ces effets ne sont pas le fruit d’une intention malveillante mais d’une logique d’optimisation où l’engagement prime sur tout le reste.

Les algorithmes évoluent

Les plateformes ne sont pas statiques : elles adaptent leurs règles en continu. Comprendre cette évolution est une compétence clé en littératie numérique.

Exemple YouTube : autrefois, les vidéos d’environ 10 min étaient idéales pour la visibilité. Aujourd’hui, l’algorithme favorise aussi bien les Shorts (<60s) que les formats longs.

Exemple TikTok : nouveau paradigme basé sur des vidéos courtes, hyper-personnalisées, capables de déclencher des réactions émotionnelles en quelques secondes.

Message clé pour les enseignant·es : les règles de visibilité changent sans cesse. Ce qui est valorisé aujourd’hui peut être oublié demain.

Qui voit quoi ? La logique de visibilité

Avec des milliards de contenus quotidiens, les plateformes utilisent des systèmes automatisés pour décider de ce qui est montré, masqué ou promu. Ces règles sont invisibles pour les utilisateur·ices.

  • Décisions motivées par la sécurité (discours de haine, droits d’auteur)
  • Décisions guidées par l’engagement (garder les utilisateur·ices connectés)
  • Décisions influencées par la logique commerciale (impressions publicitaires)

Ces systèmes ne sont pas neutres. Ils reflètent les objectifs et les biais de leurs concepteurs, soulevant des questions éthiques majeures.

  • Qui décide de ce que nous voyons ou non ?
  • Certaines voix sont-elles systématiquement amplifiées ou réduites ?
  • Quel impact sur la créativité, l’expression et le débat public ?

Exemple : deux élèves utilisent TikTok. L’un s’arrête sur des tutoriels maquillage, l’autre sur des extraits de football. Leur fil Explore devient radicalement différent — sans qu’ils comprennent pourquoi.

« Comment aider un·e élève à répondre : pourquoi je vois ce contenu et pas un autre ? »

À vous de jouer ! Activité pratique

Quel type de contenu voyez-vous le plus sur votre flux personnel (YouTube, TikTok, Instagram) ?

À quelle fréquence voyez-vous du contenu qui remet en question vos opinions ?

Comment cela pourrait-il affecter la perception du monde des élèves ou leur compréhension de sujets controversés ?

Comment les enseignants peuvent-ils aider les élèves à prendre conscience du façonnage algorithmique ?

Synthèse et conclusion

  • Les algorithmes apprennent de nous et façonnent notre expérience numérique. Le problème n’est pas la technologie mais son opacité.
  • Invitez les participant·es à compléter la phrase : « Une façon dont les algorithmes influencent ce que mes élèves croient est… »

« Si nous n’enseignons pas le fonctionnement des algorithmes, ils continueront d’enseigner en silence — sans examen, sans consentement, sans perspective. »