L'intelligence artificielle n'est plus seulement une avancée technologique dans l'industrie des dispositifs médicaux - elle devient une fonction réglementée de confiance, de responsabilité et de performance. L'Europe a établi une frontière distincte entre le progrès technologique et la responsabilité en adoptant la loi officielle de l'UE sur l'intelligence artificielle le 1er août 2024.
La nouvelle législation fournit aux fabricants de dispositifs médicaux, en particulier ceux qui travaillent avec des Software as a Medical Device SaMD alimentés par l'IA, à la fois des exigences réglementaires et des indicateurs de marché.
La loi européenne sur l'IA : Un nouveau paradigme réglementaire
L'Acte établit de nouvelles normes pour les opérations de développement, d'évaluation et de contrôle de l'IA sur le territoire de l'Union européenne grâce à ses mesures globales. Tous les développeurs de solutions d'IA visant le marché de l'Union européenne doivent comprendre que le message concernant le déploiement de l'IA reste clair et concis. Le système réglementaire détermine que tout système affectant le diagnostic des soins de santé, le traitement des patients ou la santé doit faire l'objet d'un statut à haut risque.
Comprendre le cœur de la loi européenne sur l'IA : Fondée sur les risques, sectorielle et axée sur l'impact
La loi européenne sur l'IA intègre un modèle de classification basé sur le risque qui crée trois catégories : les pratiques interdites, les systèmes d'IA à haut risque et les systèmes à risque limité. L'IA médicale entre presque toujours dans la catégorie des systèmes à haut risque, notamment en vertu de l'article 6, paragraphe 1, point b), qui classe par défaut dans la catégorie des systèmes à haut risque tout composant d'IA d'un dispositif médical nécessitant l'examen d'un organisme notifié.
Les systèmes d'IA pour le diagnostic, la planification des thérapies, l'aide à la décision clinique et la surveillance à distance relèvent tous de cette catégorie à haut risque. Il s'agit notamment de ceux qui emploient :
- Modèles d'apprentissage automatiqueML
- Algorithmes d'apprentissage profond
- Réseaux neuronaux ou classificateurs statistiques
- Logiciels prédictifs ou de reconnaissance des formes intégrés dans les dispositifs médicaux
Principales exigences des fabricants en vertu de la loi européenne sur l'IA :
La mise en œuvre des mandats techniques fondamentaux dans le cadre d'un système de gestion de la qualité doit faire l'objet d'une attention particulière de la part des fabricants pour une mise en conformité efficace.
- Gestion des risques (article 9) :
Les fabricants devraient élaborer et maintenir des stratégies organisées de gestion des risques liés à l'IA, car elles permettent de résoudre l'instabilité du modèle de préjudice algorithmique, ainsi que les violations du système de sécurité et les problèmes liés au préjudice algorithmique. En outre, selon la norme CEI 62304, la classification de la sécurité des logiciels est une étape critique. Chaque élément logiciel doit être classé dans la classe A, B ou C en fonction du risque. Cette classification détermine la profondeur des activités requises tout au long du cycle de vie du logiciel. Il est important d'intégrer cette classification dès les premières phases de conception et d'évaluation des risques. - Gouvernance des données (article 10) :
Les fabricants doivent sélectionner des ensembles de données de haute qualité, ainsi que des échantillons représentatifs et des informations annotables et non biaisées pour la sélection des ensembles de données, entre autres critères. - Documentation technique (article 11) :
Organiser un système de documentation active pour afficher des informations complètes sur la structure du système d'IA ainsi que sur les mesures de performance, les contrôles opérationnels et les composants de sécurité. Selon la norme CEI 82304, une spécification des exigences de sécurité du produit doit également être incluse au cours de la phase de finalisation des exigences. Ce document définit les besoins essentiels en matière de sécurité, de sûreté et de facilité d'utilisation et doit être examiné en tant que produit livrable de base. - Transparence et explicabilité (article 13) :
Les utilisateurs doivent recevoir des descriptions accessibles de la logique du système d'IA qui expliquent à la fois les capacités opérationnelles et les limites du système, ainsi que la justification de ses processus décisionnels. - Contrôle humain (article 14) :
Les professionnels who suivent une formation peuvent utiliser des procédures autorisées pour empêcher les décisions automatisées d'être endommagées, tout en conservant le contrôle opérationnel grâce à ces procédures. - Enregistrement et traçabilité (article 12) :
Les données d'entrée du système ainsi que les données de sortie et les enregistrements de l'arbre de décision doivent être enregistrés de manière exhaustive, en particulier pendant le déploiement clinique pour les activités de surveillance après la mise sur le marché. - Suivi post-commercialisation (article 72) :
Des lignes directrices devraient être mises en œuvre pour mesurer les performances des systèmes d'IA en continu après leur mise en œuvre commerciale. Le système doit utiliser des analyses réelles des performances opérationnelles afin d'intégrer les commentaires des utilisateurs et d'optimiser les systèmes de contrôle des risques. En outre, la norme CEI 62304 exige un plan de maintenance du logiciel documenté. Ce plan doit définir la manière dont les anomalies, les correctifs et les mises à jour des logiciels après leur publication sont gérés et validés. Les activités de maintenance doivent s'aligner sur les pratiques de surveillance à long terme. - Marquage CE et enregistrement (article 17) :
Lorsque le marquage CE est apposé sur des dispositifs médicaux d'IA, ceux-ci doivent satisfaire aux exigences du règlement relatif aux dispositifs médicaux (MDR 2017/745) ou du règlement relatif au diagnostic in vitro (IVDR 2017/746) et de la loi de l'UE sur l'IA.
Plus qu'une réglementation : Une refonte du cycle de vie
La transformation va au-delà des exigences réglementaires car elle exige une refonte complète du processus de développement du cycle de vie des systèmes d'IA, de la création à la maintenance. L'excellence des performances techniques cède la place à une surveillance réglementaire permanente et à un suivi des normes éthiques.
Intégrant les principes de la norme CEI 62304, un processus formel de résolution des problèmes logiciels est requis tout au long du cycle de vie. Les fabricants doivent définir des procédures pour identifier, documenter, analyser et résoudre les anomalies logicielles. Ce processus doit être intégré à chaque point de contrôle de la qualité, en particulier après la vérification.
La gestion des logiciels de provenance inconnue (SOUP) est également obligatoire. Chaque composant SOUP doit être identifié, faire l'objet d'une évaluation des risques et être contrôlé par le biais d'examens de la documentation relative à la conception et à l'architecture. Cela permet de garantir que les dépendances externes sont sûres et gérées de manière appropriée.
En outre, la CEI 82304 met l'accent sur des processus définis pour l'installation, la gestion de la configuration et la mise hors service du système. Ces processus doivent être validés et documentés au cours des dernières phases de développement avant la mise sur le marché. Un processus d'atténuation des risques de cybersécurité doit également être intégré dans le SDLC et vérifié à chaque étape du cycle de vie.
L'adoption de l'IA en Europe : Le paysage en 2024
Le rapport 2024 d'Eurostat sur l'utilisation de l'IA dans les entreprises européennes montre une escalade dans la mise en œuvre de l'IA dans les entreprises européennes en 2024 :
- 41,2 % des grandes entreprises utilisent actuellement l'intelligence artificielle.
- 34,1 % des entreprises bénéficient d'opérations de marketing et de vente.
- 27,5 % de bénéfices dans les opérations commerciales.
- Bénéfice de 6,1 % dans le domaine de la logistique.
L'écart dans l'adoption de l'IA est manifeste entre les grandes et les petites entreprises :
- La technologie de l'IA est appliquée à la sécurité des TIC par 46,4 % des grandes entreprises, mais seulement 17,2 % des petites entreprises l'utilisent à cette fin.
- Un pourcentage significatif de 34,7 % des grandes entreprises utilisent l'IA dans les processus de production, contre 21,6 % pour les petites entreprises.
- L'adoption industrielle de l'intelligence artificielle présente à la fois des avantages et des difficultés, puisque 13,5 % des entreprises de l'UE utilisent actuellement des technologies d'IA.
Ces chiffres démontrent une double réalité : d'une part, l'IA est déjà en train de remodeler les fonctions critiques des entreprises ; d'autre part, il existe un écart important dans l'adoption de l'IA, en particulier dans les domaines réglementés tels que les soins de santé, où la confiance et la sécurité sont des conditions préalables à la croissance.
L'Europe ne se contente pas de réglementer : elle investit pour développer une IA digne de confiance
Contrairement aux vagues précédentes de transformation numérique, l'approche de l'UE en matière d'IA combine politique et investissement proactif.
Un rapport d'Europarl reconnaît que l'innovation en matière d'IA doit être accélérée, mais pas au détriment de la sécurité des patients ou de la surveillance éthique.
- 1,8 milliard de dollars de soutien financier pour les startups européennes de l'IA (2023).
- L'UE ne reçoit que 6 % du capital-risque mondial dans le domaine de l'IA, avec des investissements quatre fois inférieurs à ceux des États-Unis.
Les initiatives de financement comprennent
- Programme Europe numérique: 1,3 milliard d'euros (2025-2027) pour des installations d'essai et des centres de développement des compétences.
- InvestAI: Dans le cadre de la stratégie de la Décennie numérique, l'objectif est de collecter des informations sur l'état de l'environnement et de l'économie. 200 milliards d'euros pour :
- Usines d'IA
- Services en nuage
- Réseaux d'innovation transfrontaliers
Les institutions de l'UE créent un environnement favorable par le biais de changements réglementaires qui permettent aux fabricants de SaMD d'IA éthiques d'être cliniquement fiables et évolutifs.
Ce que cela signifie pour les entreprises de dispositifs médicaux
Les règlements de la loi européenne sur l'IA, ainsi que leurs implications commerciales essentielles, présentent deux points principaux que les fabricants de dispositifs médicaux doivent prendre en compte.
Ces points sont encore renforcés lorsqu'ils sont alignés sur les normes IEC 62304 et IEC 82304 qui fournissent une structure, une rigueur de classification, une continuité après la publication et une gouvernance de la sécurité tout au long du cycle de vie du logiciel.
Préparer la mise en conformité avant l'entrée sur le marché
- Analyse des lacunes de la loi sur l'IA
- Mettre à jour les dossiers techniques, les RMF et les SOP
- Intégrer des mécanismes de traçabilité dès la phase de conception
- S'engager très tôt avec les organismes notifiés pour la pré-évaluation
- Prévoir une surveillance à long terme après la mise sur le marché avec des boucles de retour d'information
Transformer la conformité en avantage concurrentiel
- Les entreprises qui sont en tête pour la conformité sont également en tête pour la confiance et la part de marché
- Construire un système de gestion de la qualité aligné sur la loi sur l'IA dès la phase de conception
- Positionner la transparence et l'auditabilité comme des facteurs de différenciation sur le marché
- Utiliser le marquage CE + la conformité à l'IA comme gage de confiance
Foire aux questions (FAQ) sur la loi européenne sur l'IA pour les dispositifs médicaux
Afin d'aider les fabricants de dispositifs médicaux à naviguer dans le paysage changeant de la conformité, voici quelques-unes des questions les plus fréquemment posées :
- Qu'est-ce que la loi européenne sur l'IA et quel est son impact sur les fabricants de dispositifs médicaux ?
La loi européenne sur l'IA est le premier cadre réglementaire complet au monde en matière d'IA. Elle impose des exigences obligatoires en matière de gestion des risques, de gouvernance des données, de surveillance humaine et de surveillance post-commercialisation, en particulier pour l'IA médicale à haut risque, comme les outils de diagnostic et les logiciels d'aide à la décision clinique. - Quels sont les systèmes d'IA dans les dispositifs médicaux qui sont classés à haut risque en vertu de la loi européenne sur l'IA ?
Tout système d'IA utilisé dans le diagnostic, la planification de la thérapie ou le suivi des patients est considéré comme à haut risque. Cela inclut les SaMD basés sur l'apprentissage automatique, les modèles d'apprentissage profond et les outils d'IA qui influencent les décisions ou les résultats en matière de santé. - Quelles sont les principales exigences de conformité pour les dispositifs médicaux alimentés par l'IA en vertu de la loi européenne sur l'IA ?
Les fabricants doivent garantir :
- la traçabilité des intrants et des extrants
- une qualité et une gouvernance robustes des données
- des mécanismes de surveillance humaine
- une documentation technique complète
- le marquage CE en vertu des normes MDR/IVDR et de la loi sur l'IA. Quel est le lien entre la loi de l'UE sur l'IA et le MDR (2017/745) et l'IVDR (2017/746) ?
La loi européenne sur l'IA s'appuie sur le MDR/IVDR en superposant des exigences spécifiques à l'IA, telles que l'explicabilité, la transparence des algorithmes et le contrôle des risques. Tous les dispositifs alimentés par l'IA doivent respecter une double conformité : les règles traditionnelles relatives aux dispositifs médicaux et les nouvelles normes en matière d'IA.
Les leaders du marché abordent la loi européenne sur l'IA non pas comme un obstacle, mais comme un schéma directeur pour la mise au point de technologies médicales fiables et performantes. Ils adoptent la conformité au niveau de l'architecture et l'utilisent pour informer la stratégie, le marketing et le positionnement de la marque.
Les entreprises de dispositifs médicaux doivent intégrer la préparation à la loi sur l'IA dans l'ensemble de leur écosystème de produits et de conformité afin d'obtenir un avantage concurrentiel. us dès aujourd'hui pour aligner votre innovation sur la conformité et transformer la préparation réglementaire en avantage concurrentiel.