Postęp technologiczny stanowi obecnie integralną część opieki zdrowotnej, a algorytmy sztucznej inteligencji (AI) wraz z innymi aplikacjami opartymi na AI wspierają pracowników służby zdrowia w warunkach klinicznych. Software as a Medical Device oparte na sztucznej inteligencji i uczeniu maszynowym (ML) Software as a Medical Device SaMD) pomaga lekarzom w podejmowaniu decyzji dotyczących lepszej opieki nad pacjentami. Ministerstwo Bezpieczeństwa Żywności i Leków Korei Południowej (MFDS) posiada wytyczne dotyczące regulacji i monitorowania stosowania urządzeń medycznych opartych na sztucznej inteligencji i dużych zbiorach danych. Wytyczne te podkreślają kryteria identyfikacji i klasyfikacji oprogramowania SaMD opartego na sztucznej inteligencji, kwestie związane z ich przeglądem oraz proces zatwierdzania.
Zgodnie z MFDS to, czy oprogramowanie AI jest wyrobem medycznym, czy nie, jest określane na podstawie jego zamierzonego zastosowania, zagrożenia, jakie może spowodować, gdy nie działa zgodnie z przeznaczeniem, oraz tego, czy oprogramowanie gwarantuje ocenę kliniczną specjalisty medycznego. Ponadto MFDS określa również, które oprogramowanie medyczne może należeć do kategorii wyrobów medycznych, a które nie. Oto krótkie porównanie.
Oprogramowanie medyczne należące do kategorii urządzeń medycznych | Oprogramowanie medyczne, które nie należy do kategorii wyrobów medycznych |
|
|
W Korei Południowej kryteria klasyfikacji algorytmów sztucznej inteligencji są zgodne z klasyfikacją urządzeń medycznych i są podzielone na cztery (04) klasy ryzyka. Producenci muszą przedstawić specyfikacje techniczne, w tym informacje na temat środowiska operacyjnego serwera w chmurze, rodzaju usługi w chmurze, standardu bezpieczeństwa itp. Specyfikacje techniczne są zatwierdzane na podstawie czułości, swoistości, pozytywnej wartości predykcyjnej, negatywnej wartości predykcyjnej, krzywej charakterystyki operacyjnej odbiornika (ROC) i obszaru pod krzywą (AUC) oprogramowania urządzenia.
Producenci są również zobowiązani do przedłożenia "Dokumentu zasad działania" określającego algorytm diagnostyczny i wyjaśnienie technologii przetwarzania w chmurze zastosowanej w urządzeniu. Producenci muszą również przedłożyć "Raport z weryfikacji i walidacji oprogramowania" podkreślający informacje dotyczące gromadzenia danych testowych, metodę testowania i standardy testowania. W przypadkach, gdy informacje są przesyłane za pośrednictwem technologii przetwarzania w chmurze, producenci muszą zapewnić prywatność danych poprzez ustanowienie środków, takich jak kontrola dostępu do serwera, uwierzytelnianie użytkowników i szyfrowanie w celu przesyłania i zapisywania informacji medycznych.
Producenci urządzeń medycznych AI muszą wykazać, że ich urządzenia są pozbawione wszelkich luk w cyberbezpieczeństwie. Producenci muszą przedłożyć raport "Software Verification and Validation". Raport musi zawierać proces testowania i weryfikacji wymogów cyberbezpieczeństwa, wyniki testów oraz wyniki ponownych testów w przypadku, gdy oprogramowanie zostało zmienione podczas testów i weryfikacji. Producenci muszą przedłożyć dokumenty dotyczące "Zarządzania ryzykiem cyberbezpieczeństwa" w celu rejestrowania działań związanych z zarządzaniem ryzykiem oraz minimalizowania i zapobiegania potencjalnym szkodom poprzez identyfikację zagrożeń związanych z cyberbezpieczeństwem w całym cyklu życia wyrobu medycznego.
W celu walidacji klinicznej urządzeń opartych na sztucznej inteligencji producenci muszą przeprowadzić badanie prospektywne lub retrospektywne. Badania prospektywne obejmują ocenę uczestników badania w odniesieniu do zmian spowodowanych przez wcześniej zdefiniowane czynniki ryzyka przez określony czas. Badania retrospektywne nie obejmują bezpośredniego kontaktu z uczestnikami badania, ale wykorzystują dokumentację medyczną obejmującą obrazy medyczne i parametry życiowe. Walidacja kliniczna jest ważna w celu określenia odpowiedniej metody badania klinicznego.
Wnioskom dotyczącym algorytmów bez urządzeń referencyjnych musi towarzyszyć dokument z badania klinicznego. Jeśli dostępny jest predykat, można odstąpić od badania klinicznego, ale będzie ono wymagało porównania równoważności z zatwierdzonymi predykatami. Urządzenia należy porównać pod kątem
- Przeznaczenie
- Model używany do uczenia maszynowego
- Charakterystyka danych treningowych w dwóch produktach.
- Informacje wejściowe do analizy wskazań
- Niezbędne elementy technologiczne do wdrożenia algorytmu
- Dane treningowe
- Informacje wyjściowe do analizy wskazań
Algorytmy sztucznej inteligencji odgrywają kluczową rolę w podejmowaniu krytycznych decyzji klinicznych i niedokładnej diagnozie, a wynik może okazać się bardziej ryzykowny dla pacjentów. Wysiłki zmierzające do spełnienia wymogów MFDS mogą stanowić wyzwanie dla producenta. Producenci muszą zacząć od starannego zapoznania się z wymaganiami MFDS dla urządzeń opartych na sztucznej inteligencji i zrozumieć obowiązujące wymagania dla danego przypadku użycia przed planowaniem zgłoszenia. Takie podejście wielokrotnie udowodniło, że zmniejsza koszty i ryzyko czasowe związane z niezgodnością.
Co z urządzeniem medycznym opartym na sztucznej inteligencji? Czy jest ono zgodne z południowokoreańskimi przepisami dotyczącymi urządzeń? Rozpocznij ocenę już teraz ze sprawdzonym ekspertem ds. regulacji.