L’IA Act : vers une intelligence artificielle plus sûre ?
Le troisième texte qui nous intéresse ici est le Règlement européen sur l’intelligence artificielle, plus connu sous le nom d’IA Act.
Entré en vigueur le 1ᵉʳ août 2024, l’IA Act constitue le premier cadre juridique horizontal de l’Union Européenne spécifiquement dédié aux systèmes d’intelligence artificielle. Il s’applique à tout acteur développant, mettant sur le marché ou utilisant un système d’IA dans l’Union Européenne, y compris lorsqu’il est établi en dehors de celle-ci.
Son objectif est double :
Le lien entre les droits garantis par l’IA Act et les mécanismes de captation de l’attention n’est pas frontal, mais il est profondément structurant.
De nombreuses pratiques de captation de l’attention, comme les fils d’actualité personnalisés, les recommandations automatiques, ou la mise en avant de contenus émotionnellement puissants, sont pilotées par des systèmes d’intelligence artificielle. L’IA analyse les comportements des utilisateurs, anticipe leurs réactions, et ajuste l’environnement numérique en temps réel pour maximiser l’engagement.
Une régulation fondée sur le niveau de risque
L’IA Act repose sur une approche graduée, fondée sur le niveau de risque que présente un système d’IA pour les droits fondamentaux, la sécurité ou l’intégrité des processus démocratiques. Quatre catégories de risque ont ainsi été définies, chacune associée à un régime juridique spécifique.

Quelle est la place des algorithmes de recommandation ?
Bien que l’IA Act ait été adopté en 2024, il ne s’applique pas encore pleinement. Le règlement prévoit en effet une mise en œuvre progressive, avec des échéances échelonnées jusqu’en août 2026.
À vous de jouer !
Selon vous, quelle serait la place des algorithmes de recommandation au sein de cette pyramide des risques ?
