Quelle loi européenne pour l’Intelligence Artificielle ?

Actuellement encore au stade de proposition, The Artifical Intelligence Act (AI act), prévoit de classer les applications de l’IA dans quatre catégories de risques :

– Risque inacceptable : les applications et les systèmes tels que la notation sociale – social rating – utilisée par le gouvernement chinois) sont interdits
– Risque élevé : les systèmes d’IA utilisés dans des infrastructures critiques : la formation scolaire ou professionnelle, les composants de sécurité des produits, l’emploi, la gestion des travailleurs et l’accès au travail indépendant, l’application de la loi susceptible d’interférer avec les droits fondamentaux des personnes, l’administration de la justice et processus démocratiques.
– Risque limité : les systèmes faisant référence à des obligations de transparence spécifiques.
– Risque minime ou nul : comme les applications telles que les jeux vidéo compatibles avec l’IA ou les filtres anti-spam.

Une approche européenne axée sur la confiance et l’excellence

Globalement, l’approche de l’Union Européenne concernant l’intelligence artificielle veut s’axer sur l’excellence et la confiance, pour stimuler la recherche et la capacité industrielle et à garantir les droits fondamentaux.L’objectif est de renforcer le potentiel de l’Europe en matière de concurrence à l’échelle mondiale.

Pour construire une IA digne de confiance et créer un environnement sûr et propice à l’innovation pour les utilisateurs et les développeurs, la Commission a proposé trois initiatives juridiques interdépendantes :
– Un cadre juridique européen afin de faire face aux risques liés aux droits fondamentaux et à la sécurité propres aux systèmes d’IA,
– Les règles de l’UE visant à résoudre les problèmes de responsabilité liés aux nouvelles technologies, y compris les systèmes d’IA (dernier trimestre 2021 – 1er trimestre 2022),
– Une révision de la législation sectorielle en matière de sécurité (par exemple, règlement sur les machines, directive sur la sécurité générale des produits, deuxième trimestre 2021).


 

Prises de positions de l’Europe en matière d’Intelligence Artificielle

Quelques textes concernant la place et l’éthique des Intelligences Artificielles et les potentielles responsabilités concernant les technologies émergentes et/ou autonomes :

Avril 2021 – Proposal for a Regulation on a European approach for Artificial Intelligence

La commission européenne a publié son projet de réglementation et d’actions « en faveur de l’excellence et de la confiance dans l’intelligence artificielle » qui distingue plusieurs niveaux de risque pour les systèmes d’IA.
Les systèmes d’IA : à risque minime, à risque limité, à risque élevé. Il propose des règles spécifiques pour les fournisseurs de systèmes d’IA à haut risque : Pour être mis sur le marché, un système d’IA à haut risque doit notamment faire l’objet d’une évaluation de sa conformité. Les systèmes d’IA autonomes doivent être enregistrés dans une base de données de l’UE pour recevoir une déclaration de conformité portant le marquage CE. S’ils subissent des modifications substantielles au cours de leur cycle de vie, ils doivent revenir à l’étape d’évaluation de leur conformité.

Août 2020 – Le Comité économique et social européen a rendu son avis sur le Livre blanc de la Commission européenne sur l’IA
Le CESE invite notamment la Commission européenne « à jouer un rôle de chef de file afin d’assurer, en Europe, une meilleure coordination des solutions et approches relevant de l’IA appliquée qui sont utilisées pour lutter contre la pandémie de coronavirus ».

Février 2020 – Livre blanc : « Intelligence artificielle, une approche européenne axée sur l’excellence et la confiance »
Extrait : « Pour tirer le meilleur parti possible des opportunités qu’offre l’IA et relever les défis qu’elle pose, l’UE doit se montrer unie dans l’action et définir une manière qui lui est propre de promouvoir le développement et le déploiement de l’IA, en s’appuyant sur les valeurs européennes ».

Février 2020 – Rapport « Liability for Artificial Intelligence and other emerging digital technologies » Quelle responsabilité pour l’intelligence artificielle ? Mis en place dès 2018 par la Commission européenne, un groupe d’experts vient de livrer un rapport sur la responsabilité appliquée à l’IA et aux technologies émergentes. Il présente une dizaines de recommandations.

Février 2020 – Publication d’une « Stratégie européenne pour les données »
Extrait : « L’UE peut devenir un modèle de premier plan pour une société à laquelle les données confèrent les moyens de prendre de meilleures décisions, tant dans les entreprises que dans le secteur public. Afin de réaliser cette ambition, l’UE peut s’appuyer sur un cadre juridique fort (en termes de protection des données, de droits fondamentaux, de sûreté et de cybersécurité) ».


 

Pour rester informé

INSCRIPTION

(les adresses e-mails ne sont ni affichées ni cédées à des tiers)