Legge UE sull'IA e IA ad alto rischio nei dispositivi medici: Prepararsi alla conformità, competere per il futuro
6 minuti di lettura

L'intelligenza artificiale non è più solo un vantaggio tecnologico nel settore dei dispositivi medici, ma sta diventando una funzione regolamentata di fiducia, responsabilità e prestazioni. L'Europa ha stabilito un confine netto tra progresso tecnologico e responsabilità adottando la legge formale dell'UE sull'intelligenza artificiale il 1° agosto 2024.

La nuova legislazione fornisce ai produttori di dispositivi medici, in particolare a quelli che lavorano con il Software as a Medical Device SaMD) alimentato dall'intelligenza artificiale, sia i requisiti normativi che gli indicatori di mercato.

La legge UE sull'intelligenza artificiale: Un nuovo paradigma normativo

La legge stabilisce nuovi standard per le operazioni di sviluppo, valutazione e monitoraggio dell'IA all'interno del territorio dell'Unione Europea attraverso misure complete. Tutti gli sviluppatori di soluzioni di IA che perseguono il mercato dell'Unione Europea devono comprendere che il messaggio relativo alla diffusione dell'IA rimane chiaro e conciso. Il sistema normativo stabilisce che qualsiasi sistema che influisca sulla diagnosi sanitaria, sul trattamento dei pazienti o sulla salute deve essere considerato ad alto rischio.

Comprendere il nucleo della legge europea sull'AI: Basato sul rischio, specifico per il settore e orientato all'impatto

L'EU AI Act integra un modello di classificazione basato sul rischio che crea tre categorie: Pratiche vietate, Sistemi di IA ad alto rischio e Sistemi a rischio limitato. L'IA medica rientra quasi sempre nella categoria ad alto rischio, in particolare ai sensi dell'articolo 6, paragrafo 1, lettera b), che classifica come ad alto rischio, per impostazione predefinita, qualsiasi componente di IA di un dispositivo medico che richiede l'esame di un organismo notificato.

I sistemi di intelligenza artificiale per la diagnosi, la pianificazione della terapia, il supporto alle decisioni cliniche e il monitoraggio remoto rientrano tutti in questa fascia ad alto rischio. Sono compresi quelli che impiegano:

  • Modelli di apprendimento automaticoML)
  • Algoritmi di apprendimento profondo
  • Reti neurali o classificatori statistici
  • Software predittivo o di riconoscimento di pattern incorporato nei dispositivi medici

Requisiti principali del produttore ai sensi della legge UE sull'AI:

L'implementazione di mandati tecnici fondamentali all'interno di un Sistema di Gestione della Qualità richiede attenzione da parte dei produttori per un'efficace conformità.

  • Gestione del rischio (Articolo 9):
    I produttori devono creare e mantenere strategie organizzate di gestione del rischio dell'IA, in quanto risolvono l'instabilità del modello di pregiudizio algoritmico, nonché le violazioni del sistema di sicurezza e i problemi di pregiudizio algoritmico. Inoltre, secondo la norma IEC 62304, la classificazione della sicurezza del software è un passo fondamentale. Ogni elemento del software deve essere classificato come classe A, B o C in base al rischio. Questa classificazione determina la profondità delle attività richieste durante il ciclo di vita del software. È importante incorporare questa classificazione nelle prime fasi di progettazione e di valutazione del rischio.
  • Governance dei dati (articolo 10):
    I set di dati di alta qualità devono essere selezionati dai produttori insieme a campioni rappresentativi e informazioni annotate non di parte per la selezione dei set di dati, tra gli altri criteri.
  • Documentazione tecnica (Articolo 11):
    Organizzare un sistema di documentazione attivo per visualizzare informazioni complete sulla struttura del sistema di IA insieme alle misure delle prestazioni e ai controlli operativi e ai componenti di sicurezza. Secondo la norma IEC 82304, durante la fase di finalizzazione dei requisiti è necessario includere anche una Specifica dei requisiti di sicurezza del prodotto. Questo documento definisce le esigenze essenziali di sicurezza, protezione e usabilità e deve essere esaminato come deliverable principale.
  • Trasparenza e spiegabilità (articolo 13):
    Gli utenti devono ricevere descrizioni accessibili della logica del sistema di IA che spieghino sia le capacità operative che i confini del sistema, insieme alla giustificazione dei suoi processi decisionali.
  • Supervisione umana (Articolo 14):
    I professionisti who si sottopongono a un corso di formazione possono utilizzare procedure autorizzate per evitare che le decisioni vengano danneggiate dall'automazione, mantenendo il controllo operativo attraverso tali procedure.
  • Registrazione e rintracciabilità (articolo 12):
    Gli input del sistema, insieme agli output e alle registrazioni dell'albero decisionale, devono essere registrati in modo completo e soprattutto durante l'impiego clinico per le attività di sorveglianza post-vendita.
  • Monitoraggio post-commercializzazione (articolo 72):
    Le linee guida devono essere implementate per misurare le prestazioni del sistema di IA in modo continuo dopo la sua implementazione commerciale. Il sistema deve utilizzare analisi reali delle prestazioni operative effettive per integrare il feedback degli utenti e ottimizzare i sistemi di controllo del rischio. Inoltre, la norma IEC 62304 richiede un piano di manutenzione del software documentato. Questo piano deve definire come vengono gestite e convalidate le anomalie, le patch e gli aggiornamenti del software successivi al rilascio. Le attività di manutenzione devono essere in linea con le pratiche di monitoraggio a lungo termine.
  • Marcatura e registrazione CE (articolo 17):
    Quando si applica il marchio CE ai dispositivi medici di IA, questi devono soddisfare i requisiti del regolamento sui dispositivi medici (MDR 2017/745) o del regolamento sui diagnostici in vitro (IVDR 2017/746) e della legge UE sull'IA.

Più che un regolamento: Una revisione del ciclo di vita

La trasformazione va oltre i requisiti normativi perché richiede una riprogettazione completa del processo di sviluppo del ciclo di vita del sistema di IA, dalla creazione alla manutenzione. L'eccellenza delle prestazioni tecniche lascia il posto a una supervisione normativa permanente e al monitoraggio degli standard etici.

Incorporando i principi della norma IEC 62304, è necessario un processo formale di risoluzione dei problemi software per l'intero ciclo di vita. I produttori devono definire procedure per identificare, documentare, analizzare e risolvere le anomalie del software. Questo processo deve essere incorporato in ogni fase della qualità, in particolare nella post-verifica.


È inoltre richiesta la gestione del SOUP (Software di provenienza sconosciuta). Ogni componente SOUP deve essere identificato, valutato per il rischio e controllato attraverso revisioni della documentazione di progettazione e architettura. Ciò garantisce che le dipendenze esterne siano sicure e gestite in modo appropriato.


Inoltre, la norma IEC 82304 pone l'accento sui processi definiti per l'installazione, la gestione della configurazione e la disattivazione del sistema. Questi devono essere convalidati e documentati durante l'ultima fase di sviluppo prima del rilascio commerciale. Anche un processo di mitigazione del rischio di cybersicurezza deve essere integrato nell'SDLC e verificato in ogni fase del ciclo di vita.

Adozione dell'intelligenza artificiale in Europa: Il panorama del 2024

Il rapporto di Eurostat sull'utilizzo dell'IA nelle imprese europee nel 2024 mostra un andamento crescente dell'implementazione dell'IA nelle imprese europee nel 2024:

  • Il 41,2% delle grandi imprese utilizza attualmente l'intelligenza artificiale.
  • Il 34,1% delle imprese trae vantaggio dalle operazioni di marketing e vendita.
  • 27,5% di benefici nelle operazioni commerciali.
  • 6,1% di benefici nella logistica.

Il divario nell'adozione dell'IA è evidente tra le grandi e le piccole imprese:

  • La tecnologia AI è applicata per la sicurezza ICT dal 46,4% delle grandi imprese, ma solo il 17,2% delle piccole imprese la utilizza a questo scopo.
  • Una percentuale significativa del 34,7% delle grandi imprese impiega l'IA nei processi produttivi, rispetto alle aziende più piccole con il 21,6% di utilizzo dell'IA.
  • L'adozione industriale dell'intelligenza artificiale presenta sia vantaggi che difficoltà, poiché il 13,5% delle aziende dell'UE applica attualmente le tecnologie AI.

 Queste cifre dimostrano una duplice realtà: da un lato, l'IA sta già rimodellando le funzioni aziendali critiche; dall'altro, esiste un divario sostanziale nella scalabilità dell'adozione, in particolare in ambiti regolamentati come la sanità, dove la fiducia e la sicurezza sono prerequisiti per la crescita.

L'Europa non si limita a regolamentare, ma investe per far crescere l'IA affidabile

A differenza delle precedenti ondate di trasformazione digitale, l'approccio dell'UE all'IA combina politiche e investimenti proattivi.

Un rapporto di Europarl riconosce che l'innovazione dell'IA deve essere accelerata, ma non a costo della sicurezza dei pazienti o della supervisione etica.

  • 1,8 miliardi di dollari di sostegno finanziario per le startup europee dell'intelligenza artificiale (2023)
  • L'UE riceve solo il 6% del capitale di rischio globale per l'IA, con investimenti quattro volte inferiori a quelli degli Stati Uniti.

Le iniziative di finanziamento includono:

  • Programma Europa digitale: 1,3 miliardi di euro (2025-2027) per strutture di prova e centri di sviluppo delle competenze.
  • InvestAI: Fa parte della strategia del Decennio Digitale, con l'obiettivo di raccogliere 200 miliardi di euro per:
    • Fabbriche di intelligenza artificiale
    • Servizi cloud
    • Reti di innovazione transfrontaliere

Le istituzioni dell'UE creano un ambiente favorevole attraverso modifiche normative che consentano sistemi di IA etici, clinicamente affidabili e scalabili per i produttori di SaMD .

Cosa significa per le aziende di dispositivi medici

I regolamenti dell'EU AI Act, insieme alle loro implicazioni commerciali essenziali, presentano due punti principali che i produttori di dispositivi medici devono affrontare.

Questi punti sono ulteriormente rafforzati se allineati con gli standard IEC 62304 e IEC 82304, che forniscono struttura, rigore di classificazione, continuità post-rilascio e governance della sicurezza per tutto il ciclo di vita del software.

Prepararsi alla conformità prima dell'ingresso nel mercato

  • Conduzione dell'analisi delle lacune dell'AI Act
  • Aggiornare i fascicoli tecnici, le RMF e le SOP.
  • Inserire meccanismi di tracciabilità fin dalla fase di progettazione
  • Impegnarsi tempestivamente con gli Organismi Notificati per la pre-valutazione
  • Piano per la sorveglianza post-vendita a lungo termine con cicli di feedback

Convertire la conformità in vantaggio competitivo

  • Le aziende che sono leader nella compliance sono anche leader nella fiducia e nella quota di mercato
  • Costruire il SGQ con l'allineamento all'AI Act fin dalla fase concettuale
  • Posizionare la trasparenza e la verificabilità come fattori di differenziazione del mercato
  • Sfruttare il marchio CE + la conformità all'AI come distintivo di fiducia

Domande frequenti (FAQ) sulla legge europea sull'AI per i dispositivi medici

Per aiutare i produttori di dispositivi medici a orientarsi nel panorama in evoluzione della conformità, ecco alcune delle domande più frequenti:

  1. Cos'è l'EU AI Act e che impatto ha sui produttori di dispositivi medici?
    L'EU AI Act è il primo quadro normativo completo sull'IA al mondo. Impone requisiti obbligatori per la gestione del rischio, la governance dei dati, la supervisione umana e la sorveglianza post-vendita, in particolare per l'IA medica ad alto rischio, come gli strumenti diagnostici e i software di supporto alle decisioni cliniche. 
  2. Quali sistemi di IA nei dispositivi medici sono classificati come ad alto rischio ai sensi dell'EU AI Act?
    Qualsiasi sistema di IA utilizzato per la diagnosi, la pianificazione della terapia o il monitoraggio del paziente è considerato ad alto rischio. Sono compresi i SaMD basati sull'apprendimento automatico, i modelli di deep learning e gli strumenti di IA che influenzano le decisioni o gli esiti sanitari. 
  3. Quali sono i principali requisiti di conformità per i dispositivi medici alimentati dall'intelligenza artificiale ai sensi dell'EU AI Act?
    I produttori devono garantire:
    - Tracciabilità degli input e degli output
    - Qualità dei dati e governance solide
    - Meccanismi di supervisione umana
    - Documentazione tecnica completa
    - Marcatura CE ai sensi degli standard MDR/IVDR e AI Act
  4. In che modo la legge europea sull'AI si collega all'MDR (2017/745) e all'IVDR (2017/746)?
     

    La legge europea sull'IA si basa su MDR/IVDR e prevede requisiti specifici per l'IA come la spiegabilità, la trasparenza degli algoritmi e il controllo dei rischi. Tutti i dispositivi alimentati dall'IA devono soddisfare una doppia conformità: le norme tradizionali sui dispositivi medici e i nuovi standard sull'IA.

    I leader di mercato affrontano la legge europea sull'IA non come un ostacolo, ma come un modello per costruire tecnologie mediche affidabili e ad alte prestazioni. Accettano la conformità a livello di architettura e la utilizzano per informare la strategia, il marketing e il posizionamento del marchio.

    Le aziende produttrici di dispositivi medici devono incorporare la preparazione all'IA Act nell'intero ecosistema di prodotti e conformità per ottenere un vantaggio competitivo. us oggi stesso per allineare l'innovazione alla conformità e trasformare la preparazione normativa in un vantaggio competitivo.