Sztuczna inteligencja nie jest już tylko technologiczną przewagą w branży wyrobów medycznych - staje się regulowaną funkcją zaufania, odpowiedzialności i wydajności. Europa ustanowiła wyraźną granicę między postępem technologicznym a odpowiedzialnością, przyjmując formalną unijną ustawę o sztucznej inteligencji w dniu 1 sierpnia 2024 r.
Nowe przepisy zapewniają producentom urządzeń medycznych, w szczególności tym pracującym z Software as a Medical Device opartym na sztucznej inteligencji Software as a Medical Device SaMD), zarówno wymogi regulacyjne, jak i wskaźniki rynkowe.
Unijna ustawa o sztucznej inteligencji: Nowy paradygmat regulacyjny
Ustawa ustanawia nowe standardy rozwoju, oceny i monitorowania operacji AI na terytorium Unii Europejskiej poprzez swoje kompleksowe środki. Wszyscy twórcy rozwiązań AI działający na rynku Unii Europejskiej muszą zrozumieć, że przesłanie dotyczące wdrażania AI pozostaje jasne i zwięzłe. System regulacyjny określa, że każdy system wpływający na diagnostykę opieki zdrowotnej, leczenie pacjentów lub zdrowie musi mieć status wysokiego ryzyka.
Zrozumienie istoty unijnej ustawy o sztucznej inteligencji: Oparty na ryzyku, sektorowy, ukierunkowany na skutki
Unijna ustawa o sztucznej inteligencji obejmuje model klasyfikacji oparty na ryzyku, który tworzy trzy kategorie: Praktyki zabronione, Systemy AI wysokiego ryzyka i Systemy ograniczonego ryzyka. Medyczna sztuczna inteligencja prawie zawsze należy do kategorii wysokiego ryzyka, w szczególności na mocy art. 6 ust. 1 lit. b), który domyślnie klasyfikuje każdy element sztucznej inteligencji wyrobu medycznego wymagający przeglądu jednostki notyfikowanej jako obarczony wysokim ryzykiem.
Systemy sztucznej inteligencji do diagnozowania, planowania terapii, wspomagania decyzji klinicznych i zdalnego monitorowania - wszystkie mieszczą się w przedziale wysokiego ryzyka. Obejmuje to te, które wykorzystują:
- Modele uczenia maszynowegoML)
- Algorytmy głębokiego uczenia
- Sieci neuronowe lub klasyfikatory statystyczne
- Oprogramowanie predykcyjne lub do rozpoznawania wzorców wbudowane w urządzenia medyczne
Kluczowe wymogi dla producentów wynikające z unijnej ustawy o sztucznej inteligencji:
Wdrożenie podstawowych mandatów technicznych w ramach systemu zarządzania jakością wymaga uwagi ze strony producentów w celu zapewnienia skutecznej zgodności.
- Zarządzanie ryzykiem (art. 9):
Zorganizowane strategie zarządzania ryzykiem AI powinny być tworzone i utrzymywane przez producentów, ponieważ rozwiązują one niestabilność modelu uprzedzeń algorytmicznych, wraz z naruszeniami systemu bezpieczeństwa i problemami z uprzedzeniami algorytmicznymi. Dodatkowo, zgodnie z normą IEC 62304, klasyfikacja bezpieczeństwa oprogramowania jest krytycznym krokiem. Każdy element oprogramowania musi zostać sklasyfikowany jako klasa A, B lub C w oparciu o ryzyko. Klasyfikacja ta określa zakres wymaganych działań w całym cyklu życia oprogramowania. Ważne jest, aby uwzględnić tę klasyfikację na wczesnych etapach projektowania i oceny ryzyka. - Zarządzanie danymi (art. 10):
Zbiory danych wysokiej jakości powinny być wybierane przez producentów wraz z reprezentatywnymi próbkami i możliwymi do przypisania, nieobiektywnymi informacjami do wyboru zbiorów danych wśród innych kryteriów. - Dokumentacja techniczna (art. 11):
Zorganizowanie aktywnego systemu dokumentacji w celu wyświetlania pełnych informacji o strukturze systemu AI wraz z pomiarami wydajności i operacyjnymi elementami sterowania i bezpieczeństwa. Zgodnie z normą IEC 82304 na etapie finalizacji wymagań należy również uwzględnić specyfikację wymagań bezpieczeństwa produktu. Dokument ten definiuje podstawowe potrzeby w zakresie bezpieczeństwa, ochrony i użyteczności i powinien zostać poddany przeglądowi jako podstawowy dokument. - Przejrzystość i zrozumiałość (art. 13):
Użytkownicy muszą otrzymywać przystępne opisy logiki systemu AI, które wyjaśniają zarówno możliwości operacyjne, jak i granice systemu, wraz z uzasadnieniem procesów decyzyjnych. - Nadzór ludzki (art. 14):
Specjaliści who przeszli szkolenie, mogą korzystać z autoryzowanych procedur, aby zapobiec zautomatyzowanemu uszkodzeniu decyzji przy jednoczesnym zachowaniu kontroli operacyjnej za pomocą tych procedur. - Rejestrowanie i identyfikowalność (art. 12):
Dane wejściowe systemu wraz z danymi wyjściowymi i zapisami drzewa decyzyjnego powinny być w pełni rejestrowane, zwłaszcza podczas wdrożenia klinicznego w celu prowadzenia działań nadzoru po wprowadzeniu do obrotu. - Monitorowanie po wprowadzeniu do obrotu (art. 72):
Należy wdrożyć wytyczne dotyczące ciągłego pomiaru wydajności systemu AI po jego komercyjnym wdrożeniu. System powinien wykorzystywać rzeczywiste analizy rzeczywistej wydajności operacyjnej w celu zintegrowania informacji zwrotnych od użytkowników i optymalizacji systemów kontroli ryzyka. Ponadto norma IEC 62304 wymaga udokumentowanego planu konserwacji oprogramowania. Plan ten musi określać, w jaki sposób anomalie, poprawki i aktualizacje oprogramowania po wydaniu są zarządzane i zatwierdzane. Działania konserwacyjne powinny być zgodne z długoterminowymi praktykami monitorowania. - Oznakowanie CE i rejestracja (art. 17):
Stosując oznakowanie CE na wyrobach medycznych do SI, muszą one spełniać wymogi zarówno rozporządzenia w sprawie wyrobów medycznych (MDR 2017/745) lub rozporządzenia w sprawie diagnostyki in vitro (IVDR 2017/746), jak i unijnej ustawy o sztucznej inteligencji.
Więcej niż regulacja: Przegląd cyklu życia
Transformacja wykracza poza wymogi regulacyjne, ponieważ wymaga całkowitego przeprojektowania procesu rozwoju cyklu życia systemu sztucznej inteligencji, od tworzenia po konserwację. Doskonałość techniczna ustępuje miejsca stałemu nadzorowi regulacyjnemu i śledzeniu standardów etycznych.
Uwzględniając zasady normy IEC 62304, wymagany jest formalny proces rozwiązywania problemów z oprogramowaniem w całym cyklu życia. Producenci muszą zdefiniować procedury identyfikacji, dokumentowania, analizowania i rozwiązywania anomalii oprogramowania. Powinno to być uwzględnione na każdym etapie jakości, zwłaszcza po weryfikacji.
Wymagane jest również zarządzanie SOUP (oprogramowaniem o nieznanym pochodzeniu). Każdy komponent SOUP musi zostać zidentyfikowany, oceniony pod kątem ryzyka i kontrolowany poprzez przeglądy dokumentacji projektowej i architektonicznej. Gwarantuje to, że zewnętrzne zależności są bezpieczne i odpowiednio zarządzane.
Ponadto norma IEC 82304 kładzie nacisk na zdefiniowane procesy instalacji, zarządzania konfiguracją i wycofywania systemu z eksploatacji. Muszą one zostać zweryfikowane i udokumentowane na późnym etapie rozwoju przed wydaniem komercyjnym. Proces ograniczania ryzyka cyberbezpieczeństwa musi również zostać zintegrowany z SDLC i zweryfikowany na każdym etapie cyklu życia.
Wdrożenie sztucznej inteligencji w Europie: Krajobraz w 2024 r.
Raport Eurostatu z 2024 r. na temat wykorzystania sztucznej inteligencji w europejskich przedsiębiorstwach zdalnych danych pokazuje eskalację wzorca wdrażania sztucznej inteligencji w europejskich przedsiębiorstwach w 2024 roku:
- 41,2% dużych przedsiębiorstw korzysta obecnie ze sztucznej inteligencji.
- 34,1% przedsiębiorstw czerpie korzyści z działań marketingowych i sprzedażowych.
- 27,5% korzyści w działalności biznesowej.
- 6,1% korzyści w logistyce.
Przepaść we wdrażaniu sztucznej intelig encji jest widoczna między dużymi i mniejszymi przedsiębiorstwami:
- Technologia AI jest stosowana w celu zapewnienia bezpieczeństwa ICT przez 46,4% dużych przedsiębiorstw, ale tylko 17,2% małych firm wykorzystuje ją w tym celu.
- Znaczący odsetek 34,7% dużych przedsiębiorstw wykorzystuje sztuczną inteligencję w procesach produkcyjnych w porównaniu do mniejszych firm z 21,6% wykorzystaniem AI.
- Przyjęcie sztucznej inteligencji w przemyśle napotyka zarówno zalety, jak i trudności, ponieważ 13,5% firm w UE stosuje obecnie technologie AI.
Liczby te pokazują podwójną rzeczywistość - z jednej strony sztuczna inteligencja już przekształca krytyczne funkcje biznesowe; z drugiej strony istnieje znaczna luka w skalowaniu adopcji, szczególnie w domenach regulowanych, takich jak opieka zdrowotna, gdzie zaufanie i bezpieczeństwo są warunkiem wstępnym wzrostu.
Europa nie tylko reguluje - inwestuje w skalowanie godnej zaufania sztucznej inteligencji
W przeciwieństwie do wcześniejszych fal transformacji cyfrowej, podejście UE do sztucznej inteligencji łączy politykę z proaktywnymi inwestycjami.
Raport Europarl przyznaje, że innowacje w zakresie sztucznej inteligencji muszą zostać przyspieszone, ale nie kosztem bezpieczeństwa pacjentów lub nadzoru etycznego.
- 1,8 mld USD wsparcia finansowego dla europejskich startupów AI (2023)
- UE otrzymuje tylko 6% globalnego kapitału wysokiego ryzyka w zakresie sztucznej inteligencji, a inwestycje są czterokrotnie niższe niż w USA.
Inicjatywy finansowania obejmują:
- Program "Cyfrowa Europa": 1,3 mld euro (2025-2027) na obiekty testowe i centra rozwoju umiejętności.
- InvestAI: Część strategii Cyfrowej Dekady, której celem jest zebranie 200 mld euro dla:
- Fabryki sztucznej inteligencji
- Usługi w chmurze
- Transgraniczne sieci innowacji
Instytucje UE tworzą wspierające środowisko poprzez zmiany regulacyjne, które umożliwiają etyczne systemy sztucznej inteligencji, które są klinicznie niezawodne i skalowalne dla producentów SaMD .
Co to oznacza dla firm produkujących urządzenia medyczne?
Przepisy unijnej ustawy o sztucznej inteligencji, wraz z ich zasadniczymi implikacjami biznesowymi, przedstawiają dwie główne kwestie, którymi muszą zająć się producenci wyrobów medycznych.
Punkty te są dodatkowo wzmocnione, gdy są dostosowane do norm IEC 62304 i IEC 82304, które zapewniają strukturę, rygor klasyfikacji, ciągłość po wydaniu i zarządzanie bezpieczeństwem w całym cyklu życia oprogramowania.
Przygotowanie do zapewnienia zgodności przed wejściem na rynek
- Przeprowadzenie analizy luk w ustawie o sztucznej inteligencji
- Aktualizacja dokumentacji technicznej, RMF i SOP
- Wdrażanie mechanizmów identyfikowalności od etapu projektowania
- Wczesna współpraca z jednostkami notyfikowanymi w celu przeprowadzenia oceny wstępnej
- Plan długoterminowego nadzoru po wprowadzeniu do obrotu z pętlami sprzężenia zwrotnego
Przekształć zgodność z przepisami w przewagę konkurencyjną
- Firmy, które przodują pod względem zgodności, przodują również pod względem zaufania i udziału w rynku.
- Budowanie QMS z dostosowaniem do AI Act od fazy koncepcyjnej
- Pozycjonowanie przejrzystości i możliwości audytu jako wyróżników rynkowych
- Wykorzystaj zgodność z CE Mark + AI jako znak zaufania
Często zadawane pytania dotyczące unijnej ustawy o sztucznej inteligencji w odniesieniu do wyrobów medycznych
Aby pomóc producentom urządzeń medycznych w poruszaniu się po zmieniającym się krajobrazie zgodności, oto niektóre z najczęściej zadawanych pytań:
- Czym jest unijna ustawa o sztucznej inteligencji i jaki ma wpływ na producentów wyrobów medycznych?
Unijna ustawa o sztucznej inteligencji to pierwsze na świecie kompleksowe ramy regulacyjne dotyczące sztucznej inteligencji. Nakłada ona obowiązkowe wymogi w zakresie zarządzania ryzykiem, zarządzania danymi, nadzoru ludzkiego i nadzoru po wprowadzeniu do obrotu, zwłaszcza w przypadku medycznej sztucznej inteligencji wysokiego ryzyka, takiej jak narzędzia diagnostyczne i oprogramowanie wspomagające podejmowanie decyzji klinicznych. - Które systemy sztucznej inteligencji w urządzeniach medycznych są klasyfikowane jako obarczone wysokim ryzykiem na mocy unijnej ustawy o sztucznej inteligencji?
Każdy system sztucznej inteligencji wykorzystywany w diagnostyce, planowaniu terapii lub monitorowaniu pacjentów jest uznawany za obarczony wysokim ryzykiem. Obejmuje to SaMD oparte na uczeniu maszynowym, modele głębokiego uczenia i narzędzia AI, które wpływają na decyzje lub wyniki zdrowotne. - Jakie są kluczowe wymogi zgodności dla wyrobów medycznych opartych na sztucznej inteligencji zgodnie z unijną ustawą o sztucznej inteligencji?
Producenci muszą zapewnić:
- Identyfikowalność danych wejściowych i wyjściowych
- Solidną jakość danych i zarządzanie
- Mechanizmy nadzoru człowieka
- Pełną dokumentację techniczną
- Oznakowanie CE zgodnie z normami MDR/IVDR i ustawą o sztucznej inteligencji. W jaki sposób unijna ustawa o sztucznej inteligencji odnosi się do MDR (2017/745) i IVDR (2017/746)?
Unijna ustawa o sztucznej inteligencji opiera się na MDR/IVDR, nakładając wymogi specyficzne dla sztucznej inteligencji, takie jak możliwość wyjaśnienia, przejrzystość algorytmów i kontrola ryzyka. Wszystkie urządzenia oparte na sztucznej inteligencji muszą spełniać podwójne wymogi - tradycyjne przepisy dotyczące wyrobów medycznych oraz nowe standardy dotyczące sztucznej inteligencji.
Liderzy rynku traktują unijną ustawę o sztucznej inteligencji nie jako przeszkodę, ale jako plan budowania zaufanych, wysokowydajnych technologii medycznych. Przyjmują zgodność na poziomie architektury i wykorzystują ją do informowania o strategii, marketingu i pozycjonowaniu marki.
Aby uzyskać przewagę konkurencyjną, firmy zajmujące się wyrobami medycznymi muszą uwzględnić gotowość AI Act w całym ekosystemie produktów i zgodności z przepisami. Skontaktuj się us już dziś, aby dostosować swoje innowacje do zgodności z przepisami i przekształcić gotowość regulacyjną w przewagę konkurencyjną.