Nous adoptons une proposition historique de cette Commission : notre tout premier cadre juridique sur l’intelligence artificielle. Il fait partie d’un ensemble plus large, qui comprend également un nouveau plan coordonné avec les États membres et un nouveau règlement sur les mécanismes. Ce package présente notre approche européenne de l’intelligence artificielle.
Il est le résultat de trois années de travail. En 2018, nous avons lancé la stratégie européenne en matière d’IA. Une « AI Alliance » de 4 000 parties prenantes a été réunie pour débattre des implications sociétales de l’intelligence artificielle. Et notre groupe d’experts de haut niveau sur l’IA a élaboré des lignes directrices pour une intelligence artificielle digne de confiance. Cela a conduit à la publication de notre livre blanc sur l’intelligence artificielle en février 2020. Ce livre blanc a déclenché un vaste débat public et a reçu plus de 1 200 contributions directes, provenant de tous les horizons de notre société, des grandes et petites entreprises technologiques aux ONG et aux universités.
Aujourd’hui, notre objectif est de faire de l’Europe un acteur de classe mondiale dans le développement d’une intelligence artificielle sûre, fiable et centrée sur l’homme, ainsi que dans l’utilisation de celle-ci.
Comme nous le disons dans notre livre blanc sur l’IA, un écosystème de confiance va de pair avec un écosystème d’excellence. D’une part, notre réglementation porte sur les risques humains et sociétaux associés à des utilisations spécifiques de l’IA. Il s’agit de créer la confiance. D’autre part, notre plan coordonné décrit les mesures nécessaires que les États membres doivent prendre pour stimuler les investissements et l’innovation. Pour garantir l’excellence. Tout cela, pour faire en sorte que nous renforcions l’adoption de l’IA dans toute l’Europe.
Aujourd’hui déjà, l’intelligence artificielle apporte de grands avantages à nos vies, et nous n’en avons vu que le début. En ce moment même, elle sauve des vies grâce à de meilleurs diagnostics. Elle contribue à la réalisation de notre « Green Deal » en aidant les agriculteurs à optimiser leurs ressources. Elle aide même les ingénieurs à reconstruire la cathédrale Notre-Dame de Paris.
Ces exemples illustrent tout ce que nous voulons que l’IA soit en Europe : une force de progrès. Mais pour que cela soit possible, nous devons instaurer la confiance dans les systèmes d’IA. Nous ne pourrons tirer pleinement parti du potentiel sociétal et économique de l’IA que si nous sommes convaincus de pouvoir en atténuer les risques.
Pour ce faire, le cadre juridique que nous proposons ne s’intéresse pas à la technologie de l’IA elle-même. Il s’intéresse plutôt à la manière dont l’IA est utilisée, et dans quel but.
Il adopte une approche proportionnée et fondée sur le risque, reposant sur une logique simple : plus le risque qu’une IA spécifique peut entraîner pour nos vies est élevé, plus les règles sont strictes.
Sur cette base, nous classons l’utilisation de l’IA en quatre catégories différentes.
Comme dans une pyramide, nous trouvons à la grande base la grande majorité des applications de l’IA qui représentent un risque minimal ou nul. Par exemple, des filtres qui reconnaissent les messages de spam et les empêchent d’entrer dans notre boîte de réception. Ou dans une usine pour minimiser la quantité de déchets afin d’optimiser l’utilisation des ressources. Notre cadre juridique permet une utilisation libre de ces applications, sans aucune restriction en plus des règles juridiques qui existent déjà pour protéger les consommateurs.
Un peu plus haut dans la pyramide se trouvent les utilisations à risque limité de l’IA, comme un chatbot qui nous aide à réserver un billet ou à trouver le magasin le plus proche pour acheter ce que nous voulons. Ces utilisations sont également autorisées, mais soumises à des obligations de transparence. L’objectif est de faire en sorte que les utilisateurs sachent clairement qu’ils interagissent avec une machine.
En se rapprochant du sommet de la pyramide, on trouve les utilisations « à haut risque » de l’IA. C’est l’objectif principal de notre cadre. Ces utilisations sont considérées comme à haut risque car elles interfèrent avec des aspects importants de notre vie. Nous parlons par exemple de l’intelligence artificielle qui filtre les programmes d’études des candidats pour l’éducation et les demandes d’emploi. Ou de systèmes qui évaluent si une personne est suffisamment digne pour obtenir un prêt hypothécaire de la banque. Ou encore d’un logiciel utilisé dans les voitures à conduite autonome ou les appareils médicaux, et qui pourrait entraîner de nouveaux risques pour notre sécurité et notre santé.
Ces systèmes d’IA seront soumis à une nouvelle série de cinq obligations strictes, car ils pourraient potentiellement avoir un impact énorme sur nos vies.
– 1/ Les fournisseurs d’IA sont tenus d’alimenter leurs systèmes avec des données de haute qualité pour s’assurer que les résultats ne sont pas biaisés ou discriminatoires.
– 2/ Ils doivent également fournir une documentation détaillée sur le fonctionnement de leurs systèmes d’IA, afin que les autorités puissent évaluer leur conformité.
– 3/ Les fournisseurs doivent partager des informations substantielles avec les utilisateurs pour les aider à comprendre et à utiliser correctement les systèmes d’IA.
– 4/ ils doivent assurer un niveau approprié de supervision humaine tant dans la conception que dans la mise en œuvre de l’intelligence artificielle.
– 5/ et enfin, ils doivent respecter les normes les plus élevées en matière de cybersécurité et d’exactitude.
Au sommet de la pyramide, nous trouvons les utilisations – limitées – de l’IA que nous interdisons complètement parce que nous les considérons tout simplement inacceptables. Il s’agit des systèmes d’IA qui utilisent des techniques subliminales pour causer un préjudice physique ou psychologique à quelqu’un. Par exemple, dans le cas d’un jouet qui utilise l’assistance vocale pour manipuler un enfant et l’amener à faire quelque chose de dangereux. De telles utilisations n’ont pas leur place en Europe. Nous proposons donc de les interdire.
Et la même interdiction s’applique aux applications de l’IA qui vont à l’encontre de nos valeurs fondamentales. Par exemple, un système de notation sociale qui classerait les gens en fonction de leur comportement social. Un citoyen qui violerait le code de la route ou paierait ses loyers trop tard aurait un mauvais score social. Cela influencerait alors la façon dont les autorités interagissent avec lui, ou la façon dont les banques traitent sa demande de crédit.
Il est donc logique de proposer des règles qui puissent être appliquées. La proposition contient donc également des dispositions sur la manière dont le respect de ces exigences sera assuré.
Les autorités nationales seront chargées d’évaluer si les systèmes d’IA respectent leurs obligations. Chacune dans le cadre de ses propres compétences. Il appartiendra aux États membres de déterminer quelle autorité nationale est la mieux placée. Par exemple, les obligations relatives à la vie privée seront évaluées par les autorités nationales chargées de la protection des données, tandis que les produits dangereux relèveront de la compétence des autorités de surveillance du marché, c’est elles qui décideront de retirer ces produits du marché.
Des sanctions s’appliqueront en cas de non-conformité persistante. Ainsi, un fournisseur d’IA qui ne respecterait pas l’interdiction des pratiques d’intelligence artificielle pourrait se voir infliger une amende pouvant aller jusqu’à 6 % de son chiffre d’affaires annuel mondial.
Une utilisation spécifique de l’IA entre à la fois dans la catégorie des risques élevés et dans celle des interdictions. Il s’agit de l’identification biométrique à distance. L’identification biométrique peut être utilisée à de nombreuses fins. Certaines d’entre elles ne posent pas de problème. Par exemple, lorsqu’elle est utilisée par les autorités douanières lors des contrôles aux frontières, ou lorsqu’on nous demande de signer avec nos empreintes digitales ou par reconnaissance faciale.
Dans notre proposition, nous nous concentrons sur l’identification biométrique à distance, lorsque de nombreuses personnes sont contrôlées simultanément. Nous considérons toute utilisation de cette technique comme très risquée du point de vue des droits fondamentaux. C’est pourquoi nous soumettons l’identification biométrique à distance à des règles encore plus strictes que les autres cas d’utilisation à haut risque.
Mais il y a une situation où cela peut ne pas être suffisant. C’est le cas lorsque l’identification biométrique à distance est utilisée en temps réel par les forces de l’ordre dans des lieux publics. Il n’y a pas de place pour la surveillance de masse dans notre société. C’est pourquoi, dans notre proposition, l’utilisation de l’identification biométrique dans les lieux publics est interdite par principe. Nous proposons des exceptions très étroites qui sont strictement définies, limitées et réglementées. Il s’agit de cas extrêmes, par exemple lorsque les autorités policières en ont besoin pour rechercher un enfant disparu.
Dans l’ensemble, ce cadre juridique façonne la confiance que nous devons instaurer si nous voulons que les personnes et les entreprises adoptent les solutions d’IA.
Comme défini dans notre stratégie sur l’avenir numérique de l’Europe, un écosystème de confiance va de pair avec un écosystème d’excellence. Pour que l’Europe devienne un leader mondial de l’IA de confiance, nous devons donner aux entreprises l’accès aux meilleures conditions pour construire des systèmes d’IA avancés.
C’est l’idée qui sous-tend notre plan coordonné révisé sur l’intelligence artificielle. Il coordonne les investissements entre les États membres afin de garantir que l’argent des programmes Digital Europe et Horizon Europe soit dépensé là où nous en avons le plus besoin. Par exemple, dans le calcul à haute performance ou pour créer des installations permettant de tester et d’améliorer les systèmes d’IA.
Nous identifions également les secteurs à fort impact où la Commission européenne, les États membres et les acteurs privés unissent leurs efforts pour accélérer le développement de l’IA critique. C’est le cas par exemple de l’économie verte. Aujourd’hui, nous travaillons à l’amélioration des capteurs intelligents pour aider les agriculteurs à produire plus de nourriture, de manière plus durable, tout en économisant de l’argent. Ils peuvent le faire en faisant pousser les bonnes cultures au bon endroit et au bon moment, grâce à des algorithmes dédiés.
Enfin, un nouveau règlement sur les produits de machines sera proposé afin d’adapter nos règles de sécurité à cette nouvelle génération de produits et services d’IA.
Pour conclure – comme toujours lorsque nous proposons une réglementation, le temps compte. Aujourd’hui aussi. L’Europe n’a peut-être pas été le leader de la dernière vague de numérisation, mais elle a tout pour mener la prochaine. Elle sera fondée sur les données industrielles. Et elle apportera l’intelligence artificielle dans des secteurs comme l’industrie manufacturière, l’énergie propre et les soins de santé, où l’Europe excelle. Nous devons donc nous assurer de bien faire les choses, le plus rapidement possible. Ainsi, quelle que soit la vitesse à laquelle les technologies évoluent, l’intelligence artificielle est toujours en phase avec ce que nous sommes et ce que nous défendons.