Sztuczna inteligencja nie jest już tylko technologiczną przewagą w branży wyrobów medycznych - staje się regulowaną funkcją zaufania, odpowiedzialności i wydajności. Europa ustanowiła wyraźną granicę między postępem technologicznym a odpowiedzialnością, przyjmując formalną unijną ustawę o sztucznej inteligencji w dniu 1 sierpnia 2024 r.
Nowe przepisy zapewniają producentom urządzeń medycznych, w szczególności tym pracującym z Software as a Medical Device opartym na sztucznej inteligencji Software as a Medical Device SaMD), zarówno wymogi regulacyjne, jak i wskaźniki rynkowe.
Unijna ustawa o sztucznej inteligencji: Nowy paradygmat regulacyjny
Ustawa ustanawia nowe standardy rozwoju, oceny i monitorowania operacji AI na terytorium Unii Europejskiej poprzez swoje kompleksowe środki. Wszyscy twórcy rozwiązań AI działający na rynku Unii Europejskiej muszą zrozumieć, że przesłanie dotyczące wdrażania AI pozostaje jasne i zwięzłe. System regulacyjny określa, że każdy system wpływający na diagnostykę opieki zdrowotnej, leczenie pacjentów lub zdrowie musi mieć status wysokiego ryzyka.
Zrozumienie istoty unijnej ustawy o sztucznej inteligencji: Oparty na ryzyku, sektorowy, ukierunkowany na skutki
Unijna ustawa o sztucznej inteligencji obejmuje model klasyfikacji oparty na ryzyku, który tworzy trzy kategorie: Praktyki zabronione, Systemy AI wysokiego ryzyka i Systemy ograniczonego ryzyka. Medyczna sztuczna inteligencja prawie zawsze należy do kategorii wysokiego ryzyka, w szczególności na mocy art. 6 ust. 1 lit. b), który domyślnie klasyfikuje każdy element sztucznej inteligencji wyrobu medycznego wymagający przeglądu jednostki notyfikowanej jako obarczony wysokim ryzykiem.
Systemy sztucznej inteligencji do diagnozowania, planowania terapii, wspomagania decyzji klinicznych i zdalnego monitorowania - wszystkie mieszczą się w przedziale wysokiego ryzyka. Obejmuje to te, które wykorzystują:
- Modele Machine Learning ML)
- Algorytmy głębokiego uczenia
- Sieci neuronowe lub klasyfikatory statystyczne
- Oprogramowanie do przewidywania lub rozpoznawania wzorców wbudowane w wyroby medyczne
Kluczowe wymogi dla producentów wynikające z unijnej ustawy o sztucznej inteligencji:
Wdrożenie podstawowych mandatów technicznych w ramach systemu zarządzania jakością wymaga uwagi ze strony producentów w celu zapewnienia skutecznej zgodności.
- Zarządzanie ryzykiem (art. 9):
Zorganizowane strategie zarządzania ryzykiem AI powinny być tworzone i utrzymywane przez producentów, ponieważ rozwiązują one niestabilność modelu uprzedzeń algorytmicznych, wraz z naruszeniami systemu bezpieczeństwa i problemami z uprzedzeniami algorytmicznymi. Dodatkowo, zgodnie z normą IEC 62304, klasyfikacja bezpieczeństwa oprogramowania jest krytycznym krokiem. Każdy element oprogramowania musi zostać sklasyfikowany jako klasa A, B lub C w oparciu o ryzyko. Klasyfikacja ta określa zakres wymaganych działań w całym cyklu życia oprogramowania. Ważne jest, aby uwzględnić tę klasyfikację na wczesnych etapach projektowania i oceny ryzyka. - Zarządzanie danymi (art. 10):
Zbiory danych wysokiej jakości powinny być wybierane przez producentów wraz z reprezentatywnymi próbkami i możliwymi do przypisania, nieobiektywnymi informacjami do wyboru zbiorów danych wśród innych kryteriów. - Dokumentacja techniczna (art. 11):
Zorganizowanie aktywnego systemu dokumentacji w celu wyświetlania pełnych informacji o strukturze systemu AI wraz z pomiarami wydajności i operacyjnymi elementami sterowania i bezpieczeństwa. Zgodnie z normą IEC 82304 na etapie finalizacji wymagań należy również uwzględnić specyfikację wymagań bezpieczeństwa produktu. Dokument ten definiuje podstawowe potrzeby w zakresie bezpieczeństwa, ochrony i użyteczności i powinien zostać poddany przeglądowi jako podstawowy dokument. - Przejrzystość i zrozumiałość (art. 13):
Użytkownicy muszą otrzymywać przystępne opisy logiki systemu AI, które wyjaśniają zarówno możliwości operacyjne, jak i granice systemu, wraz z uzasadnieniem procesów decyzyjnych. - Nadzór ludzki (art. 14):
Specjaliści who przeszli szkolenie, mogą korzystać z autoryzowanych procedur, aby zapobiec zautomatyzowanemu uszkodzeniu decyzji przy jednoczesnym zachowaniu kontroli operacyjnej za pomocą tych procedur. - Rejestrowanie i identyfikowalność (art. 12):
Dane wejściowe systemu wraz z danymi wyjściowymi i zapisami drzewa decyzyjnego powinny być w pełni rejestrowane, zwłaszcza podczas wdrożenia klinicznego w celu prowadzenia działań nadzoru po wprowadzeniu do obrotu. - Monitorowanie po wprowadzeniu do obrotu (art. 72):
Należy wdrożyć wytyczne dotyczące ciągłego pomiaru wydajności systemu AI po jego komercyjnym wdrożeniu. System powinien wykorzystywać rzeczywiste analizy rzeczywistej wydajności operacyjnej w celu zintegrowania informacji zwrotnych od użytkowników i optymalizacji systemów kontroli ryzyka. Ponadto norma IEC 62304 wymaga udokumentowanego planu konserwacji oprogramowania. Plan ten musi określać, w jaki sposób anomalie, poprawki i aktualizacje oprogramowania po wydaniu są zarządzane i zatwierdzane. Działania konserwacyjne powinny być zgodne z długoterminowymi praktykami monitorowania. - Oznakowanie CE i rejestracja (art. 17):
Stosując oznakowanie CE na wyrobach medycznych do SI, muszą one spełniać wymogi zarówno rozporządzenia w sprawie wyrobów medycznych (MDR 2017/745) lub rozporządzenia w sprawie diagnostyki in vitro (IVDR 2017/746), jak i unijnej ustawy o sztucznej inteligencji.
Więcej niż regulacja: Przegląd cyklu życia
Transformacja wykracza poza wymogi regulacyjne, ponieważ wymaga całkowitego przeprojektowania procesu rozwoju cyklu życia systemu sztucznej inteligencji, od tworzenia po konserwację. Doskonałość techniczna ustępuje miejsca stałemu nadzorowi regulacyjnemu i śledzeniu standardów etycznych.
Uwzględniając zasady normy IEC 62304, wymagany jest formalny proces rozwiązywania problemów z oprogramowaniem w całym cyklu życia. Producenci muszą zdefiniować procedury identyfikacji, dokumentowania, analizowania i rozwiązywania anomalii oprogramowania. Powinno to być uwzględnione na każdym etapie jakości, zwłaszcza po weryfikacji.
Wymagane jest również zarządzanie SOUP (oprogramowaniem o nieznanym pochodzeniu). Każdy komponent SOUP musi zostać zidentyfikowany, oceniony pod kątem ryzyka i kontrolowany poprzez przeglądy dokumentacji projektowej i architektonicznej. Gwarantuje to, że zewnętrzne zależności są bezpieczne i odpowiednio zarządzane.
Ponadto norma IEC 82304 kładzie nacisk na zdefiniowane procesy instalacji, zarządzania konfiguracją i wycofywania systemu z eksploatacji. Muszą one zostać zweryfikowane i udokumentowane na późnym etapie rozwoju przed wydaniem komercyjnym. Proces ograniczania ryzyka cyberbezpieczeństwa musi również zostać zintegrowany z SDLC i zweryfikowany na każdym etapie cyklu życia.
Wdrożenie sztucznej inteligencji w Europie: Krajobraz w 2024 r.
Raport Eurostatu z 2024 r. na temat wykorzystania sztucznej inteligencji w europejskich przedsiębiorstwach zdalnych danych pokazuje eskalację wzorca wdrażania sztucznej inteligencji w europejskich przedsiębiorstwach w 2024 roku:
- 41,2% dużych przedsiębiorstw korzysta obecnie ze sztucznej inteligencji.
- 34,1% przedsiębiorstw czerpie korzyści z działań marketingowych i sprzedażowych.
- 27,5% korzyści w działalności biznesowej.
- 6,1% korzyści w logistyce.
Przepaść we wdrażaniu sztucznej intelig encji jest widoczna między dużymi i mniejszymi przedsiębiorstwami:
- Technologia AI jest stosowana w celu zapewnienia bezpieczeństwa ICT przez 46,4% dużych przedsiębiorstw, ale tylko 17,2% małych firm wykorzystuje ją w tym celu.
- Znaczący odsetek 34,7% dużych przedsiębiorstw wykorzystuje sztuczną inteligencję w procesach produkcyjnych w porównaniu do mniejszych firm z 21,6% wykorzystaniem AI.
- Przyjęcie sztucznej inteligencji w przemyśle napotyka zarówno zalety, jak i trudności, ponieważ 13,5% firm w UE stosuje obecnie technologie AI.
Liczby te pokazują podwójną rzeczywistość - z jednej strony sztuczna inteligencja już przekształca krytyczne funkcje biznesowe; z drugiej strony istnieje znaczna luka w skalowaniu adopcji, szczególnie w domenach regulowanych, takich jak opieka zdrowotna, gdzie zaufanie i bezpieczeństwo są warunkiem wstępnym wzrostu.
Europa nie tylko reguluje - inwestuje w skalowanie godnej zaufania sztucznej inteligencji
W przeciwieństwie do wcześniejszych fal transformacji cyfrowej, podejście UE do sztucznej inteligencji łączy politykę z proaktywnymi inwestycjami.
Raport Europarl przyznaje, że innowacje w zakresie sztucznej inteligencji muszą zostać przyspieszone, ale nie kosztem bezpieczeństwa pacjentów lub nadzoru etycznego.
- 1,8 mld USD wsparcia finansowego dla europejskich startupów AI (2023)
- UE otrzymuje tylko 6% globalnego kapitału wysokiego ryzyka w zakresie sztucznej inteligencji, a inwestycje są czterokrotnie niższe niż w USA.
Inicjatywy finansowania obejmują:
- Program "Cyfrowa Europa": 1,3 mld euro (2025-2027) na obiekty testowe i centra rozwoju umiejętności.
- InvestAI: Część strategii Cyfrowej Dekady, której celem jest zebranie 200 mld euro dla:
- Fabryki sztucznej inteligencji
- Usługi w chmurze
- Transgraniczne sieci innowacji
Instytucje UE tworzą wspierające środowisko poprzez zmiany regulacyjne, które umożliwiają etyczne systemy sztucznej inteligencji, które są klinicznie niezawodne i skalowalne dla producentów SaMD .
Co to oznacza dla firm produkujących urządzenia medyczne?
Przepisy unijnej ustawy o sztucznej inteligencji, wraz z ich zasadniczymi implikacjami biznesowymi, przedstawiają dwie główne kwestie, którymi muszą zająć się producenci wyrobów medycznych.
Punkty te są dodatkowo wzmocnione, gdy są dostosowane do norm IEC 62304 i IEC 82304, które zapewniają strukturę, rygor klasyfikacji, ciągłość po wydaniu i zarządzanie bezpieczeństwem w całym cyklu życia oprogramowania.
Przygotowanie do zapewnienia zgodności przed wejściem na rynek
- Przeprowadzenie analizy luk w ustawie o sztucznej inteligencji
- Aktualizacja dokumentacji technicznej, RMF i SOP
- Wdrażanie mechanizmów identyfikowalności od etapu projektowania
- Wczesna współpraca z jednostkami notyfikowanymi w celu przeprowadzenia oceny wstępnej
- Plan długoterminowego nadzoru po wprowadzeniu do obrotu z pętlami sprzężenia zwrotnego
Przekształć zgodność z przepisami w przewagę konkurencyjną
- Firmy, które przodują pod względem zgodności, przodują również pod względem zaufania i udziału w rynku.
- Budowanie QMS z dostosowaniem do AI Act od fazy koncepcyjnej
- Pozycjonowanie przejrzystości i możliwości audytu jako wyróżników rynkowych
- Wykorzystaj zgodność z CE Mark + AI jako znak zaufania
Często zadawane pytania (FAQ) dotyczące unijnej ustawy o sztucznej inteligencji w odniesieniu do wyroby medyczne
Aby pomóc producentom urządzeń medycznych w poruszaniu się po zmieniającym się krajobrazie zgodności, oto niektóre z najczęściej zadawanych pytań:
- Czym jest unijna ustawa o sztucznej inteligencji i jaki ma wpływ na producentów wyrobów medycznych?
Unijna ustawa o sztucznej inteligencji to pierwsze na świecie kompleksowe ramy regulacyjne dotyczące sztucznej inteligencji. Nakłada ona obowiązkowe wymogi w zakresie zarządzania ryzykiem, zarządzania danymi, nadzoru ludzkiego i nadzoru po wprowadzeniu do obrotu, zwłaszcza w przypadku medycznej sztucznej inteligencji wysokiego ryzyka, takiej jak narzędzia diagnostyczne i oprogramowanie wspomagające podejmowanie decyzji klinicznych. - Które systemy sztucznej inteligencji w wyroby medyczne klasyfikowane jako wysokiego ryzyka zgodnie z unijną ustawą o sztucznej inteligencji?
Każdy system sztucznej inteligencji wykorzystywany w diagnostyce, planowaniu terapii lub monitorowaniu pacjentów jest uważany za wysokiego ryzyka. Obejmuje to SaMD machine learning, modele głębokiego uczenia się oraz narzędzia sztucznej inteligencji, które mają wpływ na decyzje lub wyniki dotyczące zdrowia. - Jakie są kluczowe wymagania dotyczące zgodności z przepisami dla wyroby medyczne opartych na sztucznej inteligencji wyroby medyczne unijną ustawą o sztucznej inteligencji?
Producenci muszą zapewnić:
• Identyfikowalność danych wejściowych i wyjściowych
• Wysoką jakość danych i zarządzanie nimi
• Mechanizmy nadzoru ludzkiego
• Pełną dokumentację techniczną
• Oznakowanie CE zgodnie z normami MDR/IVDR i ustawą o sztucznej inteligencji W jaki sposób unijna ustawa o sztucznej inteligencji odnosi się do MDR (2017/745) i IVDR (2017/746)?
Unijna ustawa o sztucznej inteligencji opiera się na MDR/IVDR, nakładając wymogi specyficzne dla sztucznej inteligencji, takie jak możliwość wyjaśnienia, przejrzystość algorytmów i kontrola ryzyka. Wszystkie urządzenia oparte na sztucznej inteligencji muszą spełniać podwójne wymogi - tradycyjne przepisy dotyczące wyrobów medycznych oraz nowe standardy dotyczące sztucznej inteligencji.
Liderzy rynku traktują unijną ustawę o sztucznej inteligencji nie jako przeszkodę, ale jako plan budowania zaufanych, wysokowydajnych technologii medycznych. Przyjmują zgodność na poziomie architektury i wykorzystują ją do informowania o strategii, marketingu i pozycjonowaniu marki.
Aby uzyskać przewagę konkurencyjną, firmy zajmujące się wyrobami medycznymi muszą uwzględnić gotowość AI Act w całym ekosystemie produktów i zgodności z przepisami. Skontaktuj się us już dziś, aby dostosować swoje innowacje do zgodności z przepisami i przekształcić gotowość regulacyjną w przewagę konkurencyjną.