🤖 Un encadrement pour la robotique et l’intelligence artificielle
Actualités réglementaires

🤖 Un encadrement pour la robotique et l’intelligence artificielle

Le développement fulgurant de la robotique et de l’intelligence artificielle (IA) questionne sur son encadrement technique, juridique, voire éthique. Porteur de nouvelles opportunités, de nouvelles ambitions, ces technologies sont également sources de nouveaux défis et risques dans tous les secteurs et domaines d’activité.

 

👷 La robotique, l’intelligence artificielle et la sécurité au travail

 

Les réflexions et débats sur l’enjeu de la robotique et à l’IA n’ont pas manqué dans le domaine de la santé et de la sécurité au travail (SST). En effet, l’automatisation des tâches cognitives et celle des tâches physiques qu’impliquent ces nouvelles technologies modifieront nécessairement le lieu et les conditions de travail.

Si plusieurs travaux, études et rapports portent sur le sujet, le constat communément partagé porte sur le besoin d’un cadre assurant aux utilisateurs :

  • Une confidentialité de leurs données,
  • L’équité,
  • La responsabilité,
  • La transparence.

Pour l’heure, les enjeux de SST liés à la robotique et à l’IA seraient couverts par 02 directives européennes :

📕 Vers une règlementation européenne spécifique à l’IA

 

Les enjeux stratégiques de la robotique et de l’IA ont conduit la Commission européenne à proposer une règlementation spécifique à l’IA, en avril 2021. Il s’agirait de structurer cette filière à travers à un double objectif :

  • Garantir aux utilisateurs et citoyens de l’Union européenne un niveau élevé de protection en matière de santé, de sécurité et de droits fondamentaux,
  • Assurer la libre circulation des biens et services fondées sur l’IA grâce à un cadre juridique stable.

Quelles sont les apports majeurs de ce projet de règlement ?

Souple dans ses dispositions, le projet de règlement distingue 3 types d’IA :

  • Celles qui sont purement et simplement interdites,
  • Celles qui présentent un haut risquepour la santé, la sécurité et les droits fondamentaux : au cœur du projet de règlement, les règles de mise sur le marché de ces IA sont particulièrement exigeantes en termes de recueil d’informations et de gestion des risques. La définition de ces IA étant assez flexible, le fournisseur de système d’IA aura à déterminer, sur le fondement de différentes règlementations sectorielles, si son système présente un haut risque ou pas.
  • Celles qui sont considérées comme ne présentant pas ou peu de risques.

Des procédures d’évaluation de conformité sont prévues pour chaque type de système d’IA. Prenant la forme soit d’une auto-certification par le fournisseur, soit d’une certification de conformité par un tiers, les évaluations de conformité pour les IA à haut risque devront se faire tout les 5ans, et à chaque modification substantielle du système. Pour les autres systèmes d’IA, la vérification de conformité devrait se faire grâce à un « Code de conduite » défini par le projet de règlement, lequel Code pourrait vraisemblablement tendre vers l’élaboration d’un programme de certification volontaire. En cas de non-conformité, les sanctions pourraient aller d’une amende de 10M€ ou 2% du CA mondial de l’entreprise jusqu’à 30M€ ou 6% du CA mondial de l’entreprise.

En termes d’éthique, le projet de règlement entend interdire certaines pratiques en matière d’IA. Preuve de la souplesse dont fait montre le texte : parmi ces pratiques interdites, il y en a une qui serait interdite aux pouvoirs publics mais autorisée pour les entreprises privées : il s’agit de la mise en service ou l’utilisation de systèmes d’IA destinés à évaluer ou à établir un classement de la fiabilité de personnes physiques. En parallèle, certaines pratiques, en principe interdites, pourraient faire l’objet d’autorisation sous certaines conditions.

Quoi qu’il en soit, des obligations sont mises à la charge de l’ensemble des acteurs : allant des utilisateurs d’IA aux Etats membres et les autorités de surveillance du marché, en passant par les fabricants, les fournisseurs, distributeurs et importateurs de systèmes d’IA.

Afin d’assurer l’efficience du texte, il est créé un « Comité européen de l‘intelligence artificielle », lequel assurera les fonctions d’accompagnement, de support et de conseil aussi bien auprès des autorités de contrôle qu’auprès des Etats membres.

Se faisant pragmatique, le projet de règlement comporte des dispositions qui devraient permettre à la Commission européenne d’adapter certains articles pour en assurer leur efficacité.

 

✅ La robotique et l’intelligence artificielle au service de la normalisation

 

Dans ce contexte où l’automatisation des tâches prend de plus en plus d’ampleur, le recours à l’IA fait désormais partie des projets de transformation numérique de l’Agence française de normalisation – AFNOR.

Le projet MARSS, pour « Machine Applicable Readable Standard et Standardisation », aurait pour finalité de rendre le contenu des normes (telles que l’ISO 9001 sur la qualité) plus facilement exploitable. Cela se traduirait par l’intégration automatisée des normes dans la base numérique des utilisateurs grâce à une complète dématérialisation de ces normes et sans qu’il n’y plus besoin de l’intervention d’un être humain.

Pour l’heure, les normes en question sont accessibles : soit en version papier, soit en version PDF. Elles requièrent donc le recours à un être humain pour leur traitement et leur intégration dans le process des utilisateurs.

En tout cas, le projet devrait être exploitable d’ici 2030.

 

Sources :

Eurogip, Intelligence artificielle : décrypter le projet de règlement européen
OSHA, La robotique de pointe et l’intelligence artificielle pour l’automatisation des tâches au travail: situation actuelles et considérations pour la SST
AFNOR, Demain, les normes seront lues par les machines

 

Arinasy Andréas RAKOTOLAHY – Juriste HSE