La inteligencia artificial ya no es solo una ventaja tecnológica en el sector de los productos sanitarios: se está convirtiendo en una función regulada de confianza, responsabilidad y rendimiento. Europa estableció una frontera clara entre el progreso tecnológico y la rendición de cuentas al adoptar la Ley de Inteligencia Artificial de la UE el 1 de agosto de 2024.
La nueva legislación ofrece a los fabricantes de productos sanitarios, en concreto a los que trabajan con Software as a Medical Device SaMD) basado en IA, tanto requisitos normativos como indicadores de mercado.
La Ley de Inteligencia Artificial de la UE: Un nuevo paradigma regulador
La Ley establece normas novedosas para las operaciones de desarrollo, evaluación y supervisión de la IA en el territorio de la Unión Europea a través de sus exhaustivas medidas. Todos los desarrolladores de soluciones de IA que persigan el mercado de la Unión Europea deben comprender que el mensaje relativo al despliegue de la IA sigue siendo claro y conciso. El sistema normativo determina que cualquier sistema que afecte al diagnóstico sanitario o al tratamiento de pacientes, o a la salud, debe afrontar un estatus de Alto Riesgo.
Comprender el núcleo de la Ley de AI de la UE: Basada en el riesgo, específica para cada sector e impulsada por el impacto
La Ley de IA de la UE integra un modelo de clasificación basado en el riesgo que crea tres categorías: Prácticas prohibidas, Sistemas de IA de alto riesgo y Sistemas de riesgo limitado. La IA médica casi siempre entra en la categoría de alto riesgo, en particular en virtud del artículo 6, apartado 1, letra b), que clasifica por defecto como de alto riesgo cualquier componente de IA de un producto sanitario que requiera la revisión de un organismo notificado.
Los sistemas de IA para el diagnóstico, la planificación de terapias, el apoyo a la toma de decisiones clínicas y la monitorización remota entran dentro de esta categoría de alto riesgo. Esto incluye los que emplean:
- Modelos de aprendizaje automáticoML)
- Algoritmos de aprendizaje profundo
- Redes neuronales o clasificadores estadísticos
- Software predictivo o de reconocimiento de patrones integrado en productos sanitarios
Requisitos clave para los fabricantes en virtud de la Ley de IA de la UE:
La aplicación de los principales mandatos técnicos dentro de un sistema de gestión de la calidad requiere la atención de los fabricantes para su cumplimiento efectivo.
- Gestión de riesgos (artículo 9):
Los fabricantes deben crear y mantener estrategias organizadas de gestión de riesgos de IA, ya que resuelven la inestabilidad del modelo de prejuicio algorítmico, junto con las infracciones del sistema de seguridad y los problemas de prejuicio algorítmico. Además, según la norma IEC 62304, la clasificación de la seguridad del software es un paso crítico. Cada elemento de software debe clasificarse como Clase A, B o C en función del riesgo. Esta clasificación determina la profundidad de las actividades necesarias a lo largo del ciclo de vida del software. Es importante incorporar esta clasificación en las primeras fases de diseño y evaluación de riesgos. - Gobernanza de los datos (artículo 10):
Los fabricantes deben seleccionar conjuntos de datos de alta calidad junto con muestras representativas e información no sesgada y anotable para seleccionar los conjuntos de datos, entre otros criterios. - Documentación técnica (artículo 11):
Organizar un sistema de documentación activa para mostrar información completa sobre la estructura del sistema de IA junto con las mediciones de rendimiento y los controles operativos y componentes de seguridad. Según la norma IEC 82304, también debe incluirse una Especificación de Requisitos de Seguridad del Producto durante la fase de finalización de los requisitos. Este documento define las necesidades esenciales de seguridad, protección y facilidad de uso y debe revisarse como un entregable esencial. - Transparencia y explicabilidad (artículo 13):
Los usuarios deben recibir descripciones accesibles de la lógica del sistema de IA que expliquen tanto las capacidades operativas como los límites del sistema, junto con la justificación de sus procesos de toma de decisiones. - Supervisión humana (Artículo 14):
Los profesionales who reciban formación pueden utilizar procedimientos autorizados para evitar que las decisiones se vean perjudicadas por la automatización, manteniendo al mismo tiempo el control operativo a través de dichos procedimientos. - Registro y trazabilidad (artículo 12):
Las entradas del sistema, junto con las salidas y los registros del árbol de decisiones, deben registrarse en su totalidad y especialmente durante el despliegue clínico para las actividades de vigilancia postcomercialización. - Supervisión posterior a la comercialización (artículo 72):
Deben aplicarse directrices para medir el rendimiento del sistema de IA de forma continua tras su implantación comercial. El sistema debe utilizar análisis reales del rendimiento operativo real para integrar los comentarios de los usuarios y optimizar los sistemas de control de riesgos. Además, la norma IEC 62304 exige un Plan de Mantenimiento del Software documentado. Este plan debe definir cómo se gestionan y validan las anomalías, parches y actualizaciones del software posteriores a su lanzamiento. Las actividades de mantenimiento deben alinearse con las prácticas de supervisión a largo plazo. - Marcado CE y registro (artículo 17):
Al aplicar el marcado CE a los productos sanitarios de IA, estos deben cumplir los requisitos tanto del Reglamento sobre productos sanitarios (MDR 2017/745) o del Reglamento sobre diagnóstico in vitro (IVDR 2017/746) como de la Ley de IA de la UE.
Más que regulación: Una revisión del ciclo de vida
La transformación va más allá de los requisitos reglamentarios porque exige un rediseño completo del proceso de desarrollo del ciclo de vida del sistema de IA, desde la creación hasta el mantenimiento. La excelencia en el rendimiento técnico da paso a una supervisión reglamentaria permanente y al seguimiento de las normas éticas.
Incorporando los principios de la norma IEC 62304, se requiere un proceso formal de resolución de problemas de software a lo largo de todo el ciclo de vida. Los fabricantes deben definir procedimientos para identificar, documentar, analizar y resolver las anomalías del software. Esto debe integrarse en cada puerta de calidad, especialmente después de la verificación.
La gestión de SOUP (Software de Procedencia Desconocida) también es obligatoria. Cada componente SOUP debe ser identificado, evaluado en cuanto a riesgos y controlado mediante revisiones de la documentación de diseño y arquitectura. Esto garantiza que las dependencias externas sean seguras y se gestionen adecuadamente.
Además, la CEI 82304 hace hincapié en los procesos definidos para la instalación, la gestión de la configuración y el desmantelamiento del sistema. Éstos deben validarse y documentarse durante las últimas fases de desarrollo antes de su lanzamiento comercial. También debe integrarse un proceso de mitigación de riesgos de ciberseguridad en el SDLC y verificarse en cada fase del ciclo de vida.
Adopción de la IA en Europa: Panorama para 2024
El informe 2024 de Eurostat sobre el uso de la IA en las empresas europeas muestra un patrón creciente de implantación de la IA en las empresas europeas durante 2024:
- El 41,2% de las grandes empresas utilizan actualmente inteligencia artificial.
- El 34,1% de las empresas se benefician en operaciones de marketing y ventas.
- 27,5% de beneficio en operaciones comerciales.
- Beneficio del 6,1% en logística.
La brecha en la adopción de la IA es evidente entre las grandes y las pequeñas empresas:
- El 46,4% de las grandes empresas aplican la tecnología de IA para la seguridad de las TIC, pero sólo el 17,2% de las pequeñas empresas la utilizan con este fin.
- Un porcentaje significativo del 34,7% de las grandes empresas emplea la IA en los procesos de producción, frente a las empresas más pequeñas, con un 21,6% de uso de la IA.
- La adopción industrial de la inteligencia artificial se enfrenta a ventajas y dificultades, ya que el 13,5% de las empresas de la UE aplican actualmente tecnologías de IA.
Estas cifras demuestran una doble realidad: por un lado, la IA ya está remodelando funciones empresariales críticas; por otro, existe una brecha sustancial en la ampliación de la adopción, especialmente en ámbitos regulados como la sanidad, donde la confianza y la seguridad son requisitos previos para el crecimiento.
Europa no se limita a regular: invierte para aumentar la confianza en la IA
A diferencia de anteriores oleadas de transformación digital, el planteamiento de la UE respecto a la IA combina la política con la inversión proactiva.
Un informe de Europarl reconoce que la innovación en IA debe acelerarse, pero no a costa de la seguridad de los pacientes o la supervisión ética.
- 1.800 millones de dólares en ayudas financieras para las nuevas empresas europeas de IA (2023)
- La UE recibe sólo el 6% del capital riesgo mundial en IA, con inversiones cuatro veces inferiores a las de Estados Unidos.
Las iniciativas de financiación incluyen:
- Programa Europa Digital: 1 300 millones de euros (2025-2027) para instalaciones de ensayo y centros de desarrollo de competencias.
- InvestAI: Parte de la estrategia de la Década Digital, cuyo objetivo es reunir 200.000 millones de euros para:
- Fábricas de IA
- Servicios en la nube
- Redes transfronterizas de innovación
Las instituciones de la UE establecen un entorno propicio mediante cambios normativos que permiten sistemas de IA éticos que son clínicamente fiables y escalables para los fabricantes SaMD .
Qué significa esto para las empresas de productos sanitarios
La normativa de la UE sobre la Ley de IA, junto con sus implicaciones empresariales esenciales, presenta dos puntos principales que los fabricantes de productos sanitarios deben abordar.
Estos puntos se refuerzan aún más cuando se alinean con las normas IEC 62304 e IEC 82304, que proporcionan estructura, rigor en la clasificación, continuidad posterior a la publicación y gobernanza de la seguridad en todo el ciclo de vida del software.
Prepararse para el cumplimiento antes de entrar en el mercado
- Realizar un análisis de las deficiencias de la Ley de IA
- Actualización de expedientes técnicos, RMF y PNT
- Integrar mecanismos de trazabilidad desde la fase de diseño
- Colaboración temprana con los organismos notificados para la evaluación previa
- Plan de vigilancia postcomercialización a largo plazo con circuitos de retroalimentación
Convierta el cumplimiento en una ventaja competitiva
- Las empresas que lideran el cumplimiento también lideran la confianza y la cuota de mercado
- Creación de un SGC alineado con la Ley de IA desde la fase de concepción
- Posicionar la transparencia y la auditabilidad como diferenciadores del mercado
- Aprovechar el marcado CE y la conformidad con la IA como distintivo de confianza
Preguntas frecuentes sobre la Ley de IA de la UE para productos sanitarios
Para ayudar a los fabricantes de productos sanitarios a navegar por el cambiante panorama de la conformidad, he aquí algunas de las preguntas más frecuentes:
- ¿Qué es la Ley de Inteligencia Artificial de la UE y cómo afecta a los fabricantes de productos sanitarios?
La Ley de Inteligencia Artificial de la UE es el primer marco normativo completo del mundo en materia de inteligencia artificial. Impone requisitos obligatorios para la gestión de riesgos, la gobernanza de datos, la supervisión humana y la vigilancia posterior a la comercialización, especialmente para la IA médica de alto riesgo, como las herramientas de diagnóstico y el software de apoyo a la toma de decisiones clínicas. - Qué sistemas de IA en dispositivos médicos están clasificados como de alto riesgo según la Ley de IA de la UE?
Cualquier sistema de IA utilizado en el diagnóstico, la planificación de terapias o el seguimiento de pacientes se considera de alto riesgo. Esto incluye SaMD basados en aprendizaje automático, los modelos de aprendizaje profundo y las herramientas de IA que influyen en las decisiones o los resultados sanitarios. - ¿Cuáles son los principales requisitos de conformidad de los productos sanitarios impulsados por IA con arreglo a la Ley de IA de la UE?
Los fabricantes deben garantizar:
- Trazabilidad de las entradas y salidas
- Calidad y gobernanza sólidas de los datos
- Mecanismos de supervisión humana
- Documentación técnica completa
- Marcado CE con arreglo a las normas MDR/IVDR y de la Ley de IA. ¿Cómo se relaciona la Ley de AI de la UE con el MDR (2017/745) y el IVDR (2017/746)?
La Ley de Inteligencia Artificial de la UE se basa en el MDR/IVDR y establece requisitos específicos para la IA, como la explicabilidad, la transparencia de los algoritmos y los controles de riesgo. Todos los dispositivos con IA deben cumplir dos requisitos: las normas tradicionales sobre productos sanitarios y las nuevas normas sobre IA.
Los líderes del mercado abordan la Ley de IA de la UE no como un obstáculo, sino como un plan para crear tecnologías médicas fiables y de alto rendimiento. Adoptan el cumplimiento a nivel de arquitectura y lo utilizan para informar la estrategia, el marketing y el posicionamiento de la marca.
Las empresas de dispositivos médicos deben integrar la preparación para la Ley de IA en todo su ecosistema de productos y cumplimiento normativo para obtener una ventaja competitiva. Póngase en contacto con us hoy mismo para alinear su innovación con el cumplimiento y convertir la preparación normativa en una ventaja competitiva.