
Postęp technologiczny jest obecnie integralną częścią opieki zdrowotnej i algorytmów sztucznej inteligencji (AI), wraz z innymi aplikacjami opartymi na AI, wspierającymi specjalistów medycznych w warunkach klinicznych. Oparte na sztucznej inteligencji i uczeniu maszynowym (ML) oprogramowanie jako wyrób medyczny (SaMD) pomaga lekarzom w podejmowaniu decyzji w celu lepszej opieki nad pacjentem. Południowokoreańskie Ministerstwo Bezpieczeństwa Żywności i Leków (MFDS) opracowało wytyczne regulujące i monitorujące wykorzystanie urządzeń medycznych opartych na AI i Big Data. Wytyczne podkreślają kryteria identyfikacji i klasyfikacji SaMD opartych na sztucznej inteligencji, ich rozważania dotyczące przeglądu oraz proces zatwierdzania.
Zgodnie z MFDS to, czy oprogramowanie AI jest wyrobem medycznym, czy nie, jest określane na podstawie jego zamierzonego zastosowania, zagrożenia, jakie może spowodować, gdy nie działa zgodnie z przeznaczeniem, oraz tego, czy oprogramowanie gwarantuje ocenę kliniczną specjalisty medycznego. Ponadto MFDS określa również, które oprogramowanie medyczne może należeć do kategorii wyrobów medycznych, a które nie. Oto krótkie porównanie.
Oprogramowanie medyczne należące do kategorii urządzeń medycznych | Oprogramowanie medyczne, które nie należy do kategorii wyrobów medycznych |
|
|
W Korei Południowej kryteria klasyfikacji algorytmów sztucznej inteligencji są zgodne z klasyfikacją urządzeń medycznych i są podzielone na cztery (04) klasy ryzyka. Producenci muszą przedstawić specyfikacje techniczne, w tym informacje na temat środowiska operacyjnego serwera w chmurze, rodzaju usługi w chmurze, standardu bezpieczeństwa itp. Specyfikacje techniczne są zatwierdzane na podstawie czułości, swoistości, pozytywnej wartości predykcyjnej, negatywnej wartości predykcyjnej, krzywej charakterystyki operacyjnej odbiornika (ROC) i obszaru pod krzywą (AUC) oprogramowania urządzenia.
Producenci są również zobowiązani do przedłożenia "Dokumentu zasad działania" określającego algorytm diagnostyczny i wyjaśnienie technologii przetwarzania w chmurze zastosowanej w urządzeniu. Producenci muszą również przedłożyć "Raport z weryfikacji i walidacji oprogramowania" podkreślający informacje dotyczące gromadzenia danych testowych, metodę testowania i standardy testowania. W przypadkach, gdy informacje są przesyłane za pośrednictwem technologii przetwarzania w chmurze, producenci muszą zapewnić prywatność danych poprzez ustanowienie środków, takich jak kontrola dostępu do serwera, uwierzytelnianie użytkowników i szyfrowanie w celu przesyłania i zapisywania informacji medycznych.
Producenci urządzeń medycznych AI muszą wykazać, że ich urządzenia są pozbawione wszelkich luk w cyberbezpieczeństwie. Producenci muszą przedłożyć raport "Software Verification and Validation". Raport musi zawierać proces testowania i weryfikacji wymogów cyberbezpieczeństwa, wyniki testów oraz wyniki ponownych testów w przypadku, gdy oprogramowanie zostało zmienione podczas testów i weryfikacji. Producenci muszą przedłożyć dokumenty dotyczące "Zarządzania ryzykiem cyberbezpieczeństwa" w celu rejestrowania działań związanych z zarządzaniem ryzykiem oraz minimalizowania i zapobiegania potencjalnym szkodom poprzez identyfikację zagrożeń związanych z cyberbezpieczeństwem w całym cyklu życia wyrobu medycznego.
W celu walidacji klinicznej urządzeń opartych na sztucznej inteligencji producenci muszą przeprowadzić badanie prospektywne lub retrospektywne. Badania prospektywne obejmują ocenę uczestników badania w odniesieniu do zmian spowodowanych przez wcześniej zdefiniowane czynniki ryzyka przez określony czas. Badania retrospektywne nie obejmują bezpośredniego kontaktu z uczestnikami badania, ale wykorzystują dokumentację medyczną obejmującą obrazy medyczne i parametry życiowe. Walidacja kliniczna jest ważna w celu określenia odpowiedniej metody badania klinicznego.
Wnioskom dotyczącym algorytmów bez urządzeń referencyjnych musi towarzyszyć dokument z badania klinicznego. Jeśli dostępny jest predykat, można odstąpić od badania klinicznego, ale będzie ono wymagało porównania równoważności z zatwierdzonymi predykatami. Urządzenia należy porównać pod kątem
- Przeznaczenie
- Model używany do uczenia maszynowego
- Charakterystyka danych treningowych w dwóch produktach.
- Informacje wejściowe do analizy wskazań
- Niezbędne elementy technologiczne do wdrożenia algorytmu
- Dane treningowe
- Informacje wyjściowe do analizy wskazań
Algorytmy sztucznej inteligencji odgrywają kluczową rolę w podejmowaniu krytycznych decyzji klinicznych i niedokładnej diagnozie, a wynik może okazać się bardziej ryzykowny dla pacjentów. Wysiłki zmierzające do spełnienia wymogów MFDS mogą stanowić wyzwanie dla producenta. Producenci muszą zacząć od starannego zapoznania się z wymaganiami MFDS dla urządzeń opartych na sztucznej inteligencji i zrozumieć obowiązujące wymagania dla danego przypadku użycia przed planowaniem zgłoszenia. Takie podejście wielokrotnie udowodniło, że zmniejsza koszty i ryzyko czasowe związane z niezgodnością.
Co z urządzeniem medycznym opartym na sztucznej inteligencji? Czy jest ono zgodne z południowokoreańskimi przepisami dotyczącymi urządzeń? Rozpocznij ocenę już teraz ze sprawdzonym ekspertem ds. regulacji.