L’IA Act : vers une intelligence artificielle plus sûre ?

Le troisième texte qui nous intéresse ici est le Règlement européen sur l’intelligence artificielle, plus connu sous le nom d’IA Act.

Entré en vigueur le 1ᵉʳ août 2024, l’IA Act constitue le premier cadre juridique horizontal de l’Union Européenne spécifiquement dédié aux systèmes d’intelligence artificielle. Il s’applique à tout acteur développant, mettant sur le marché ou utilisant un système d’IA dans l’Union Européenne, y compris lorsqu’il est établi en dehors de celle-ci.
Son objectif est double :

  • Protéger les droits fondamentaux (vie privée, sécurité, liberté d’expression, etc) face aux usages potentiellement dangereux de l’intelligence artificielle.
  • Encourager l’innovation responsable.

Le lien entre les droits garantis par l’IA Act et les mécanismes de captation de l’attention n’est pas frontal, mais il est profondément structurant.

De nombreuses pratiques de captation de l’attention, comme les fils d’actualité personnalisés, les recommandations automatiques, ou la mise en avant de contenus émotionnellement puissants, sont pilotées par des systèmes d’intelligence artificielle. L’IA analyse les comportements des utilisateurs, anticipe leurs réactions, et ajuste l’environnement numérique en temps réel pour maximiser l’engagement.

Une régulation fondée sur le niveau de risque

L’IA Act repose sur une approche graduée, fondée sur le niveau de risque que présente un système d’IA pour les droits fondamentaux, la sécurité ou l’intégrité des processus démocratiques. Quatre catégories de risque ont ainsi été définies, chacune associée à un régime juridique spécifique.

  • Certains systèmes d’intelligence artificielle sont jugés à risque inacceptable. Incompatibles avec les valeurs de l’Union Européenne, ils sont considérés comme présentant un danger pour les droits fondamentaux pour la sécurité collective. À ce titre, ils sont strictement interdits par le règlement. Parmi les pratiques prohibées figure par exemple la reconnaissance faciale en temps réel dans l’espace public à des fins de surveillance généralisée.
  • Les systèmes classés à haut risque ne sont pas interdits, mais font l’objet d’un encadrement renforcé en raison de leur impact potentiel significatif sur la vie des individus. Ils sont soumis à des exigences strictes. Parmi les cas typiques figurent les outils de recrutement automatisé, utilisés pour filtrer ou sélectionner des candidatures.
  • Certains systèmes, dits à risque limité, ne présentent pas de risque direct pour les droits ou la sécurité, mais peuvent influencer les comportements ou les perceptions des utilisateurs. C’est le cas, par exemple, des chatbots ou des générateurs de contenus, tel que ChatGPT. Ces IA doivent respecter une obligation de transparence : les utilisateurs doivent être informés, de manière claire, qu’ils interagissent avec un système d’IA, et comprendre les grandes lignes de son fonctionnement
  • Enfin, les systèmes d’IA considérés comme à risque faible ne sont soumis à aucune obligation réglementaire particulière. Il s’agit, par exemple, des filtres anti-spam sur les boîtes mail ou encore des IA intégrées aux jeux vidéo. Ces systèmes sont librement développés et utilisés, bien que l’IA Act recommande l’application de bonnes pratiques volontaires
Pyramide des risques – Règlement IA

Quelle est la place des algorithmes de recommandation ?

Bien que l’IA Act ait été adopté en 2024, il ne s’applique pas encore pleinement. Le règlement prévoit en effet une mise en œuvre progressive, avec des échéances échelonnées jusqu’en août 2026.

À vous de jouer ! 

Selon vous, quelle serait la place des algorithmes de recommandation au sein de cette pyramide des risques ?

Pour le moment, de nombreux aspects restent à préciser. Parmi les points encore flous figure notamment la place exacte des algorithmes de recommandation dans cette architecture graduée. Il est toutefois fort probable qu’ils relèvent du niveau de risque limité, ce qui signifie qu’ils seront autorisés, mais soumis à des obligations de transparence renforcées.

Concrètement, les plateformes qui utilisent ce type de système devront :

  • Informer clairement l’utilisateur qu’il interagit avec une IA.
  • Préciser les principaux critères de recommandation.
  • Proposer une alternative au classement algorithmique, comme un fil chronologique ou un affichage non personnalisé.

Ces exigences de transparence résonnent directement avec les obligations du DSA.

À retenir

  • L’IA Act est le premier cadre juridique européen dédié à l’intelligence artificielle.
  • Il protège les droits fondamentaux tout en encadrant l’innovation.
  • Il classe les IA selon 4 niveaux de risque, avec des interdictions, obligations et libertés différentes.