Stratégie numérique pour l’Europe

La stratégie numérique pour l’Europe pour la décennie 2020-2030 veut répondre au développement rapide et généralisé des plateformes de services numériques, aux questions sur les technologies telles que l’intelligence artificielle en créant des espaces et des services numériques sûrs, une égalité de concurrence avec les grandes plateformes sur les marchés numériques. Mais aussi renforcer la souveraineté numérique de l’Europe, tout en contribuant à l’objectif de neutralité climatique d’ici 2050.

« Façonner l’avenir numérique de l’Europe » est une stratégie établie en 2020, axée sur trois objectifs : la technologie au service des personnes, une économie juste et compétitive, ainsi qu’une société durable et démocratique. Cette stratégie a été complétée en 2021, par la boussole numérique : l’Europe balise la décennie numérique, qui porte sur 10 ans et traduit les ambitions de l’Union à l’horizon 2030 en objectifs concrets.

Quelle loi européenne pour l’Intelligence Artificielle ?

Actuellement encore au stade de proposition, The Artifical Intelligence Act (AI act), prévoit de classer les applications de l’IA dans quatre catégories de risques :

– Risque inacceptable : les applications et les systèmes tels que la notation sociale – social rating – utilisée par le gouvernement chinois) sont interdits
– Risque élevé : les systèmes d’IA utilisés dans des infrastructures critiques : la formation scolaire ou professionnelle, les composants de sécurité des produits, l’emploi, la gestion des travailleurs et l’accès au travail indépendant, l’application de la loi susceptible d’interférer avec les droits fondamentaux des personnes, l’administration de la justice et processus démocratiques.
– Risque limité : les systèmes faisant référence à des obligations de transparence spécifiques.
– Risque minime ou nul : comme les applications telles que les jeux vidéo compatibles avec l’IA ou les filtres anti-spam.

Une approche européenne axée sur la confiance et l’excellence

Globalement, l’approche de l’Union Européenne concernant l’intelligence artificielle veut s’axer sur l’excellence et la confiance, pour stimuler la recherche et la capacité industrielle et à garantir les droits fondamentaux.L’objectif est de renforcer le potentiel de l’Europe en matière de concurrence à l’échelle mondiale.

Pour construire une IA digne de confiance et créer un environnement sûr et propice à l’innovation pour les utilisateurs et les développeurs, la Commission a proposé trois initiatives juridiques interdépendantes :
– Un cadre juridique européen afin de faire face aux risques liés aux droits fondamentaux et à la sécurité propres aux systèmes d’IA,
– Les règles de l’UE visant à résoudre les problèmes de responsabilité liés aux nouvelles technologies, y compris les systèmes d’IA (dernier trimestre 2021 – 1er trimestre 2022),
– Une révision de la législation sectorielle en matière de sécurité (par exemple, règlement sur les machines, directive sur la sécurité générale des produits, deuxième trimestre 2021).


 

Prises de positions de l’Europe en matière d’Intelligence Artificielle

Quelques textes concernant la place et l’éthique des Intelligences Artificielles et les potentielles responsabilités concernant les technologies émergentes et/ou autonomes :

Avril 2021 – Proposal for a Regulation on a European approach for Artificial Intelligence

La commission européenne a publié son projet de réglementation et d’actions « en faveur de l’excellence et de la confiance dans l’intelligence artificielle » qui distingue plusieurs niveaux de risque pour les systèmes d’IA.
Les systèmes d’IA : à risque minime, à risque limité, à risque élevé. Il propose des règles spécifiques pour les fournisseurs de systèmes d’IA à haut risque : Pour être mis sur le marché, un système d’IA à haut risque doit notamment faire l’objet d’une évaluation de sa conformité. Les systèmes d’IA autonomes doivent être enregistrés dans une base de données de l’UE pour recevoir une déclaration de conformité portant le marquage CE. S’ils subissent des modifications substantielles au cours de leur cycle de vie, ils doivent revenir à l’étape d’évaluation de leur conformité.

Août 2020 – Le Comité économique et social européen a rendu son avis sur le Livre blanc de la Commission européenne sur l’IA
Le CESE invite notamment la Commission européenne « à jouer un rôle de chef de file afin d’assurer, en Europe, une meilleure coordination des solutions et approches relevant de l’IA appliquée qui sont utilisées pour lutter contre la pandémie de coronavirus ».

Février 2020 – Livre blanc : « Intelligence artificielle, une approche européenne axée sur l’excellence et la confiance »
Extrait : « Pour tirer le meilleur parti possible des opportunités qu’offre l’IA et relever les défis qu’elle pose, l’UE doit se montrer unie dans l’action et définir une manière qui lui est propre de promouvoir le développement et le déploiement de l’IA, en s’appuyant sur les valeurs européennes ».

Février 2020 – Rapport « Liability for Artificial Intelligence and other emerging digital technologies » Quelle responsabilité pour l’intelligence artificielle ? Mis en place dès 2018 par la Commission européenne, un groupe d’experts vient de livrer un rapport sur la responsabilité appliquée à l’IA et aux technologies émergentes. Il présente une dizaines de recommandations.

Février 2020 – Publication d’une « Stratégie européenne pour les données »
Extrait : « L’UE peut devenir un modèle de premier plan pour une société à laquelle les données confèrent les moyens de prendre de meilleures décisions, tant dans les entreprises que dans le secteur public. Afin de réaliser cette ambition, l’UE peut s’appuyer sur un cadre juridique fort (en termes de protection des données, de droits fondamentaux, de sûreté et de cybersécurité) ».


 

Pour rester informé

INSCRIPTION

(les adresses e-mails ne sont ni affichées ni cédées à des tiers)