L'AI Act, ou Règlement sur l'intelligence artificielle, est une législation européenne qui vise à encadrer le développement et l'utilisation de l'intelligence artificielle (IA) dans l'Union européenne. Il a été proposé par la Commission européenne en avril 2021 et a été adopté par le Parlement européen et le Conseil de l'Union européenne en décembre 2023.
Le règlement s'applique à tous les systèmes d'IA qui sont mis sur le marché ou utilisés dans l'Union européenne. Il définit quatre niveaux de risque en fonction du potentiel d'impact négatif de l'IA sur les droits fondamentaux des individus ou sur la société.
Les systèmes d'IA à risque minimal sont soumis à des obligations minimales, telles que la documentation des données utilisées pour entraîner le système et la mise en place de mesures de sécurité pour protéger les données personnelles.
Les systèmes d'IA à risque élevé sont soumis à des obligations plus strictes, telles que l'évaluation des risques avant la mise sur le marché, la mise en place de mesures pour lutter contre les biais et la discrimination, et la transparence vis-à-vis des utilisateurs.
Les systèmes d'IA à risque inacceptable sont interdits, sauf si des mesures spécifiques sont prises pour réduire les risques.
Le règlement prévoit également la création d'une nouvelle autorité européenne de l'IA, chargée de superviser la mise en œuvre du règlement.
L'AI Act est une législation importante qui vise à garantir une utilisation responsable et éthique de l'IA dans l'Union européenne. Il est susceptible d'avoir un impact significatif sur le développement et l'utilisation de l'IA dans la région.
Voici quelques-uns des principaux éléments de l'AI Act :
» Classification des systèmes d'IA en fonction du risque**
» Obligations pour les systèmes d'IA à risque minimal**
» Obligations renforcées pour les systèmes d'IA à risque élevé**
» Interdiction des systèmes d'IA à risque inacceptable**
» Création d'une autorité européenne de l'IA**
L'AI Act est entré en vigueur le 1er janvier 2024.