Unijna ustawa o sztucznej inteligencji i sztuczna inteligencja wysokiego ryzyka w wyrobach medycznych: Przygotowanie do zgodności, konkurowanie o przyszłość
6 min read

Sztuczna inteligencja nie jest już tylko technologiczną przewagą w branży wyrobów medycznych - staje się regulowaną funkcją zaufania, odpowiedzialności i wydajności. Europa ustanowiła wyraźną granicę między postępem technologicznym a odpowiedzialnością, przyjmując formalną unijną ustawę o sztucznej inteligencji w dniu 1 sierpnia 2024 r.

Nowe przepisy zapewniają producentom urządzeń medycznych, w szczególności tym pracującym z Software as a Medical Device opartym na sztucznej inteligencji Software as a Medical Device SaMD), zarówno wymogi regulacyjne, jak i wskaźniki rynkowe.

Unijna ustawa o sztucznej inteligencji: Nowy paradygmat regulacyjny

Ustawa ustanawia nowe standardy rozwoju, oceny i monitorowania operacji AI na terytorium Unii Europejskiej poprzez swoje kompleksowe środki. Wszyscy twórcy rozwiązań AI działający na rynku Unii Europejskiej muszą zrozumieć, że przesłanie dotyczące wdrażania AI pozostaje jasne i zwięzłe. System regulacyjny określa, że każdy system wpływający na diagnostykę opieki zdrowotnej, leczenie pacjentów lub zdrowie musi mieć status wysokiego ryzyka.

Zrozumienie istoty unijnej ustawy o sztucznej inteligencji: Oparty na ryzyku, sektorowy, ukierunkowany na skutki

Unijna ustawa o sztucznej inteligencji obejmuje model klasyfikacji oparty na ryzyku, który tworzy trzy kategorie: Praktyki zabronione, Systemy AI wysokiego ryzyka i Systemy ograniczonego ryzyka. Medyczna sztuczna inteligencja prawie zawsze należy do kategorii wysokiego ryzyka, w szczególności na mocy art. 6 ust. 1 lit. b), który domyślnie klasyfikuje każdy element sztucznej inteligencji wyrobu medycznego wymagający przeglądu jednostki notyfikowanej jako obarczony wysokim ryzykiem.

Systemy sztucznej inteligencji do diagnozowania, planowania terapii, wspomagania decyzji klinicznych i zdalnego monitorowania - wszystkie mieszczą się w przedziale wysokiego ryzyka. Obejmuje to te, które wykorzystują:

  • Modele uczenia maszynowegoML)
  • Algorytmy głębokiego uczenia
  • Sieci neuronowe lub klasyfikatory statystyczne
  • Oprogramowanie predykcyjne lub do rozpoznawania wzorców wbudowane w urządzenia medyczne

Kluczowe wymogi dla producentów wynikające z unijnej ustawy o sztucznej inteligencji:

Wdrożenie podstawowych mandatów technicznych w ramach systemu zarządzania jakością wymaga uwagi ze strony producentów w celu zapewnienia skutecznej zgodności.

  • Zarządzanie ryzykiem (art. 9):
    Zorganizowane strategie zarządzania ryzykiem AI powinny być tworzone i utrzymywane przez producentów, ponieważ rozwiązują one niestabilność modelu uprzedzeń algorytmicznych, wraz z naruszeniami systemu bezpieczeństwa i problemami z uprzedzeniami algorytmicznymi. Dodatkowo, zgodnie z normą IEC 62304, klasyfikacja bezpieczeństwa oprogramowania jest krytycznym krokiem. Każdy element oprogramowania musi zostać sklasyfikowany jako klasa A, B lub C w oparciu o ryzyko. Klasyfikacja ta określa zakres wymaganych działań w całym cyklu życia oprogramowania. Ważne jest, aby uwzględnić tę klasyfikację na wczesnych etapach projektowania i oceny ryzyka.
  • Zarządzanie danymi (art. 10):
    Zbiory danych wysokiej jakości powinny być wybierane przez producentów wraz z reprezentatywnymi próbkami i możliwymi do przypisania, nieobiektywnymi informacjami do wyboru zbiorów danych wśród innych kryteriów.
  • Dokumentacja techniczna (art. 11):
    Zorganizowanie aktywnego systemu dokumentacji w celu wyświetlania pełnych informacji o strukturze systemu AI wraz z pomiarami wydajności i operacyjnymi elementami sterowania i bezpieczeństwa. Zgodnie z normą IEC 82304 na etapie finalizacji wymagań należy również uwzględnić specyfikację wymagań bezpieczeństwa produktu. Dokument ten definiuje podstawowe potrzeby w zakresie bezpieczeństwa, ochrony i użyteczności i powinien zostać poddany przeglądowi jako podstawowy dokument.
  • Przejrzystość i zrozumiałość (art. 13):
    Użytkownicy muszą otrzymywać przystępne opisy logiki systemu AI, które wyjaśniają zarówno możliwości operacyjne, jak i granice systemu, wraz z uzasadnieniem procesów decyzyjnych.
  • Nadzór ludzki (art. 14):
    Specjaliści who przeszli szkolenie, mogą korzystać z autoryzowanych procedur, aby zapobiec zautomatyzowanemu uszkodzeniu decyzji przy jednoczesnym zachowaniu kontroli operacyjnej za pomocą tych procedur.
  • Rejestrowanie i identyfikowalność (art. 12):
    Dane wejściowe systemu wraz z danymi wyjściowymi i zapisami drzewa decyzyjnego powinny być w pełni rejestrowane, zwłaszcza podczas wdrożenia klinicznego w celu prowadzenia działań nadzoru po wprowadzeniu do obrotu.
  • Monitorowanie po wprowadzeniu do obrotu (art. 72):
    Należy wdrożyć wytyczne dotyczące ciągłego pomiaru wydajności systemu AI po jego komercyjnym wdrożeniu. System powinien wykorzystywać rzeczywiste analizy rzeczywistej wydajności operacyjnej w celu zintegrowania informacji zwrotnych od użytkowników i optymalizacji systemów kontroli ryzyka. Ponadto norma IEC 62304 wymaga udokumentowanego planu konserwacji oprogramowania. Plan ten musi określać, w jaki sposób anomalie, poprawki i aktualizacje oprogramowania po wydaniu są zarządzane i zatwierdzane. Działania konserwacyjne powinny być zgodne z długoterminowymi praktykami monitorowania.
  • Oznakowanie CE i rejestracja (art. 17):
    Stosując oznakowanie CE na wyrobach medycznych do SI, muszą one spełniać wymogi zarówno rozporządzenia w sprawie wyrobów medycznych (MDR 2017/745) lub rozporządzenia w sprawie diagnostyki in vitro (IVDR 2017/746), jak i unijnej ustawy o sztucznej inteligencji.

Więcej niż regulacja: Przegląd cyklu życia

Transformacja wykracza poza wymogi regulacyjne, ponieważ wymaga całkowitego przeprojektowania procesu rozwoju cyklu życia systemu sztucznej inteligencji, od tworzenia po konserwację. Doskonałość techniczna ustępuje miejsca stałemu nadzorowi regulacyjnemu i śledzeniu standardów etycznych.

Uwzględniając zasady normy IEC 62304, wymagany jest formalny proces rozwiązywania problemów z oprogramowaniem w całym cyklu życia. Producenci muszą zdefiniować procedury identyfikacji, dokumentowania, analizowania i rozwiązywania anomalii oprogramowania. Powinno to być uwzględnione na każdym etapie jakości, zwłaszcza po weryfikacji.


Wymagane jest również zarządzanie SOUP (oprogramowaniem o nieznanym pochodzeniu). Każdy komponent SOUP musi zostać zidentyfikowany, oceniony pod kątem ryzyka i kontrolowany poprzez przeglądy dokumentacji projektowej i architektonicznej. Gwarantuje to, że zewnętrzne zależności są bezpieczne i odpowiednio zarządzane.


Ponadto norma IEC 82304 kładzie nacisk na zdefiniowane procesy instalacji, zarządzania konfiguracją i wycofywania systemu z eksploatacji. Muszą one zostać zweryfikowane i udokumentowane na późnym etapie rozwoju przed wydaniem komercyjnym. Proces ograniczania ryzyka cyberbezpieczeństwa musi również zostać zintegrowany z SDLC i zweryfikowany na każdym etapie cyklu życia.

Wdrożenie sztucznej inteligencji w Europie: Krajobraz w 2024 r.

Raport Eurostatu z 2024 r. na temat wykorzystania sztucznej inteligencji w europejskich przedsiębiorstwach zdalnych danych pokazuje eskalację wzorca wdrażania sztucznej inteligencji w europejskich przedsiębiorstwach w 2024 roku:

  • 41,2% dużych przedsiębiorstw korzysta obecnie ze sztucznej inteligencji.
  • 34,1% przedsiębiorstw czerpie korzyści z działań marketingowych i sprzedażowych.
  • 27,5% korzyści w działalności biznesowej.
  • 6,1% korzyści w logistyce.

Przepaść we wdrażaniu sztucznej intelig encji jest widoczna między dużymi i mniejszymi przedsiębiorstwami:

  • Technologia AI jest stosowana w celu zapewnienia bezpieczeństwa ICT przez 46,4% dużych przedsiębiorstw, ale tylko 17,2% małych firm wykorzystuje ją w tym celu.
  • Znaczący odsetek 34,7% dużych przedsiębiorstw wykorzystuje sztuczną inteligencję w procesach produkcyjnych w porównaniu do mniejszych firm z 21,6% wykorzystaniem AI.
  • Przyjęcie sztucznej inteligencji w przemyśle napotyka zarówno zalety, jak i trudności, ponieważ 13,5% firm w UE stosuje obecnie technologie AI.

 Liczby te pokazują podwójną rzeczywistość - z jednej strony sztuczna inteligencja już przekształca krytyczne funkcje biznesowe; z drugiej strony istnieje znaczna luka w skalowaniu adopcji, szczególnie w domenach regulowanych, takich jak opieka zdrowotna, gdzie zaufanie i bezpieczeństwo są warunkiem wstępnym wzrostu.

Europa nie tylko reguluje - inwestuje w skalowanie godnej zaufania sztucznej inteligencji

W przeciwieństwie do wcześniejszych fal transformacji cyfrowej, podejście UE do sztucznej inteligencji łączy politykę z proaktywnymi inwestycjami.

Raport Europarl przyznaje, że innowacje w zakresie sztucznej inteligencji muszą zostać przyspieszone, ale nie kosztem bezpieczeństwa pacjentów lub nadzoru etycznego.

  • 1,8 mld USD wsparcia finansowego dla europejskich startupów AI (2023)
  • UE otrzymuje tylko 6% globalnego kapitału wysokiego ryzyka w zakresie sztucznej inteligencji, a inwestycje są czterokrotnie niższe niż w USA.

Inicjatywy finansowania obejmują:

  • Program "Cyfrowa Europa": 1,3 mld euro (2025-2027) na obiekty testowe i centra rozwoju umiejętności.
  • InvestAI: Część strategii Cyfrowej Dekady, której celem jest zebranie 200 mld euro dla:
    • Fabryki sztucznej inteligencji
    • Usługi w chmurze
    • Transgraniczne sieci innowacji

Instytucje UE tworzą wspierające środowisko poprzez zmiany regulacyjne, które umożliwiają etyczne systemy sztucznej inteligencji, które są klinicznie niezawodne i skalowalne dla producentów SaMD .

Co to oznacza dla firm produkujących urządzenia medyczne?

Przepisy unijnej ustawy o sztucznej inteligencji, wraz z ich zasadniczymi implikacjami biznesowymi, przedstawiają dwie główne kwestie, którymi muszą zająć się producenci wyrobów medycznych.

Punkty te są dodatkowo wzmocnione, gdy są dostosowane do norm IEC 62304 i IEC 82304, które zapewniają strukturę, rygor klasyfikacji, ciągłość po wydaniu i zarządzanie bezpieczeństwem w całym cyklu życia oprogramowania.

Przygotowanie do zapewnienia zgodności przed wejściem na rynek

  • Przeprowadzenie analizy luk w ustawie o sztucznej inteligencji
  • Aktualizacja dokumentacji technicznej, RMF i SOP
  • Wdrażanie mechanizmów identyfikowalności od etapu projektowania
  • Wczesna współpraca z jednostkami notyfikowanymi w celu przeprowadzenia oceny wstępnej
  • Plan długoterminowego nadzoru po wprowadzeniu do obrotu z pętlami sprzężenia zwrotnego

Przekształć zgodność z przepisami w przewagę konkurencyjną

  • Firmy, które przodują pod względem zgodności, przodują również pod względem zaufania i udziału w rynku.
  • Budowanie QMS z dostosowaniem do AI Act od fazy koncepcyjnej
  • Pozycjonowanie przejrzystości i możliwości audytu jako wyróżników rynkowych
  • Wykorzystaj zgodność z CE Mark + AI jako znak zaufania

Często zadawane pytania dotyczące unijnej ustawy o sztucznej inteligencji w odniesieniu do wyrobów medycznych

Aby pomóc producentom urządzeń medycznych w poruszaniu się po zmieniającym się krajobrazie zgodności, oto niektóre z najczęściej zadawanych pytań:

  1. Czym jest unijna ustawa o sztucznej inteligencji i jaki ma wpływ na producentów wyrobów medycznych?
    Unijna ustawa o sztucznej inteligencji to pierwsze na świecie kompleksowe ramy regulacyjne dotyczące sztucznej inteligencji. Nakłada ona obowiązkowe wymogi w zakresie zarządzania ryzykiem, zarządzania danymi, nadzoru ludzkiego i nadzoru po wprowadzeniu do obrotu, zwłaszcza w przypadku medycznej sztucznej inteligencji wysokiego ryzyka, takiej jak narzędzia diagnostyczne i oprogramowanie wspomagające podejmowanie decyzji klinicznych. 
  2. Które systemy sztucznej inteligencji w urządzeniach medycznych są klasyfikowane jako obarczone wysokim ryzykiem na mocy unijnej ustawy o sztucznej inteligencji?
    Każdy system sztucznej inteligencji wykorzystywany w diagnostyce, planowaniu terapii lub monitorowaniu pacjentów jest uznawany za obarczony wysokim ryzykiem. Obejmuje to SaMD oparte na uczeniu maszynowym, modele głębokiego uczenia i narzędzia AI, które wpływają na decyzje lub wyniki zdrowotne. 
  3. Jakie są kluczowe wymogi zgodności dla wyrobów medycznych opartych na sztucznej inteligencji zgodnie z unijną ustawą o sztucznej inteligencji?
    Producenci muszą zapewnić:
    - Identyfikowalność danych wejściowych i wyjściowych
    - Solidną jakość danych i zarządzanie
    - Mechanizmy nadzoru człowieka
    - Pełną dokumentację techniczną
    - Oznakowanie CE zgodnie z normami MDR/IVDR i ustawą o sztucznej inteligencji.
  4. W jaki sposób unijna ustawa o sztucznej inteligencji odnosi się do MDR (2017/745) i IVDR (2017/746)?
     

    Unijna ustawa o sztucznej inteligencji opiera się na MDR/IVDR, nakładając wymogi specyficzne dla sztucznej inteligencji, takie jak możliwość wyjaśnienia, przejrzystość algorytmów i kontrola ryzyka. Wszystkie urządzenia oparte na sztucznej inteligencji muszą spełniać podwójne wymogi - tradycyjne przepisy dotyczące wyrobów medycznych oraz nowe standardy dotyczące sztucznej inteligencji.

    Liderzy rynku traktują unijną ustawę o sztucznej inteligencji nie jako przeszkodę, ale jako plan budowania zaufanych, wysokowydajnych technologii medycznych. Przyjmują zgodność na poziomie architektury i wykorzystują ją do informowania o strategii, marketingu i pozycjonowaniu marki.

    Aby uzyskać przewagę konkurencyjną, firmy zajmujące się wyrobami medycznymi muszą uwzględnić gotowość AI Act w całym ekosystemie produktów i zgodności z przepisami. Skontaktuj się us już dziś, aby dostosować swoje innowacje do zgodności z przepisami i przekształcić gotowość regulacyjną w przewagę konkurencyjną.