EU-KI-Gesetz und hochriskante KI in Medizinprodukten: Vorbereitung auf die Einhaltung der Vorschriften, Wettbewerb um die Zukunft
6 Minuten lesen

Künstliche Intelligenz ist nicht mehr nur ein technologischer Vorsprung in der Medizinprodukteindustrie - sie wird zu einer regulierten Funktion von Vertrauen, Verantwortlichkeit und Leistung. Europa hat mit der Verabschiedung des formellen EU-Gesetzes über künstliche Intelligenz am 1. August 2024 eine klare Grenze zwischen technologischem Fortschritt und Rechenschaftspflicht gezogen.

Die neue Gesetzgebung bietet Herstellern von Medizinprodukten, insbesondere solchen, die mit KI-gestützter Software as a Medical Device SaMD) arbeiten, sowohl regulatorische Anforderungen als auch Marktindikatoren.

Das EU-KI-Gesetz: Ein neues regulatorisches Paradigma

Das Gesetz legt mit seinen umfassenden Maßnahmen neue Standards für die Entwicklung, Bewertung und Überwachung von KI auf dem Gebiet der Europäischen Union fest. Alle Entwickler von KI-Lösungen, die den Markt der Europäischen Union anstreben, müssen verstehen, dass die Botschaft bezüglich des Einsatzes von KI klar und deutlich bleibt. Das Regulierungssystem legt fest, dass jedes System, das sich auf die Diagnose im Gesundheitswesen, die Behandlung von Patienten oder die Gesundheit auswirkt, mit einem hohen Risikostatus versehen werden muss.

Den Kern des EU AI-Gesetzes verstehen: Risikobasiert, sektorspezifisch, wirkungsorientiert

Das EU-KI-Gesetz sieht ein risikobasiertes Klassifizierungsmodell vor, das drei Kategorien vorsieht: Verbotene Praktiken, KI-Systeme mit hohem Risiko und Systeme mit begrenztem Risiko. Medizinische KI fällt fast immer in die Kategorie "hohes Risiko", insbesondere gemäß Artikel 6 Absatz 1 Buchstabe b, der jede KI-Komponente eines Medizinprodukts, die von einer benannten Stelle geprüft werden muss, standardmäßig als hochriskant einstuft.

KI-Systeme für Diagnose, Therapieplanung, klinische Entscheidungsunterstützung und Fernüberwachung - sie alle fallen in diese Hochrisikoklasse. Dies schließt solche ein, die Folgendes verwenden:

  • Modelle für maschinelles LernenML)
  • Deep Learning-Algorithmen
  • Neuronale Netze oder statistische Klassifikatoren
  • In medizinische Geräte eingebettete prädiktive oder Mustererkennungssoftware

Die wichtigsten Anforderungen an die Hersteller gemäß dem EU AI Act:

Die Umsetzung grundlegender technischer Anforderungen innerhalb eines Qualitätsmanagementsystems erfordert die Aufmerksamkeit der Hersteller, um die Anforderungen effektiv zu erfüllen.

  • Risikomanagement (Artikel 9):
    Organisierte KI-Risikomanagement-Strategien sollten von den Herstellern entwickelt und gepflegt werden, da sie die Instabilität des Modells für algorithmische Vorurteile sowie Verletzungen des Sicherheitssystems und Probleme mit algorithmischen Vorurteilen beheben. Darüber hinaus ist gemäß IEC 62304 die Klassifizierung der Software-Sicherheit ein entscheidender Schritt. Jedes Softwareelement muss je nach Risiko in die Klassen A, B oder C eingestuft werden. Diese Klassifizierung bestimmt die Tiefe der erforderlichen Aktivitäten während des gesamten Software-Lebenszyklus. Es ist wichtig, diese Klassifizierung bereits in den frühen Entwurfs- und Risikobewertungsphasen zu berücksichtigen.
  • Data Governance (Artikel 10):
    Qualitativ hochwertige Datensätze sollten von den Herstellern ausgewählt werden, ebenso wie repräsentative Stichproben und kommentierbare, unvoreingenommene Informationen für die Auswahl der Datensätze neben anderen Kriterien.
  • Technische Dokumentation (Artikel 11):
    Organisieren Sie ein aktives Dokumentationssystem, um vollständige Informationen über die Struktur des KI-Systems zusammen mit Leistungsmessungen, Betriebskontrollen und Sicherheitskomponenten anzuzeigen. Gemäß IEC 82304 muss in der Abschlussphase der Anforderungen auch eine Spezifikation der Produktsicherheitsanforderungen enthalten sein. Dieses Dokument definiert die wesentlichen Anforderungen an die Sicherheit und Benutzerfreundlichkeit und sollte als zentrales Dokument geprüft werden.
  • Transparenz und Erklärbarkeit (Artikel 13):
    Die Nutzer müssen zugängliche Beschreibungen der KI-Systemlogik erhalten, die sowohl die operativen Fähigkeiten als auch die Systemgrenzen erklären und die Entscheidungsprozesse begründen.
  • Menschliche Aufsicht (Artikel 14):
    Fachleute who geschult sind, können autorisierte Verfahren anwenden, um automatisierte Schäden an Entscheidungen zu verhindern und gleichzeitig durch diese Verfahren die operative Kontrolle zu behalten.
  • Protokollierung und Rückverfolgbarkeit (Artikel 12):
    Die Eingaben des Systems sowie die Ausgaben und die Aufzeichnungen des Entscheidungsbaums sollten vollständig aufgezeichnet werden, insbesondere während der klinischen Anwendung für die Überwachung nach dem Inverkehrbringen.
  • Überwachung nach dem Inverkehrbringen (Artikel 72):
    Leitlinien sollten umgesetzt werden, um die Leistung des KI-Systems nach seiner kommerziellen Einführung kontinuierlich zu messen. Das System sollte reale Analysen der tatsächlichen Betriebsleistung nutzen, um Benutzer-Feedback zu integrieren und Risikokontrollsysteme zu optimieren. Darüber hinaus verlangt die IEC 62304 einen dokumentierten Software-Wartungsplan. Dieser Plan muss festlegen, wie Softwareanomalien, Patches und Updates nach der Freigabe verwaltet und validiert werden. Die Wartungsaktivitäten sollten mit den Praktiken der Langzeitüberwachung übereinstimmen.
  • CE-Kennzeichnung und Registrierung (Artikel 17):
    Bei der Anbringung der CE-Kennzeichnung auf medizinischen KI-Geräten müssen diese sowohl die Anforderungen der Medizinprodukteverordnung (MDR 2017/745) oder der In-vitro-Diagnostika-Verordnung (IVDR 2017/746) als auch des EU-KI-Gesetzes erfüllen.

Mehr als nur Regulierung: Eine Überarbeitung des Lebenszyklus

Die Umstellung geht über die regulatorischen Anforderungen hinaus, da sie eine vollständige Neugestaltung des Entwicklungsprozesses des KI-Systems von der Erstellung bis zur Wartung erfordert. Hervorragende technische Leistung weicht einer ständigen Überwachung durch die Regulierungsbehörden und der Einhaltung ethischer Standards.

Unter Einbeziehung der IEC 62304-Prinzipien ist ein formaler Software-Problemlösungsprozess über den gesamten Lebenszyklus erforderlich. Die Hersteller müssen Verfahren zur Identifizierung, Dokumentation, Analyse und Behebung von Softwareanomalien festlegen. Dies sollte an jedem Qualitätspunkt erfolgen, insbesondere nach der Verifizierung.


Auch die Verwaltung von SOUP (Software of Unknown Provenance) ist vorgeschrieben. Jede SOUP-Komponente muss identifiziert, auf ihr Risiko hin bewertet und durch Überprüfung der Design- und Architekturdokumentation kontrolliert werden. Dadurch wird sichergestellt, dass externe Abhängigkeiten sicher sind und angemessen verwaltet werden.


Darüber hinaus legt die IEC 82304 Wert auf definierte Prozesse für die Installation, das Konfigurationsmanagement und die Außerbetriebnahme des Systems. Diese müssen in der Spätphase der Entwicklung vor der kommerziellen Freigabe validiert und dokumentiert werden. Ein Prozess zur Minderung von Cybersicherheitsrisiken muss ebenfalls in den SDLC integriert und in jeder Lebenszyklusphase überprüft werden.

KI-Einführung in Europa: Die Landschaft 2024

Der Eurostat-Bericht 2024 über den Einsatz von KI in europäischen Unternehmen zeigt, dass die KI-Implementierung in europäischen Unternehmen im Jahr 2024 zunehmen wird:

  • 41,2 % der Großunternehmen nutzen derzeit künstliche Intelligenz.
  • 34,1 % der Unternehmen profitieren im Bereich Marketing und Vertrieb.
  • 27,5 % Nutzen für den Geschäftsbetrieb.
  • 6,1 % Nutzen in der Logistik.

Die Kluft bei der Einführung von KI ist zwischen großen und kleineren Unternehmen offensichtlich:

  • Die KI-Technologie wird von 46,4 % der Großunternehmen für die IKT-Sicherheit eingesetzt, aber nur 17,2 % der kleinen Unternehmen nutzen sie für diesen Zweck.
  • Ein signifikanter Prozentsatz von 34,7 % der Großunternehmen setzt KI in Produktionsprozessen ein, verglichen mit kleineren Unternehmen mit 21,6 % KI-Nutzung.
  • Die Einführung von künstlicher Intelligenz in der Industrie hat sowohl Vorteile als auch Schwierigkeiten, denn 13,5 % der EU-Unternehmen setzen derzeit KI-Technologien ein.

 Diese Zahlen verdeutlichen eine doppelte Realität: Einerseits verändert KI bereits kritische Geschäftsfunktionen, andererseits gibt es eine erhebliche Lücke bei der Verbreitung von KI, insbesondere in regulierten Bereichen wie dem Gesundheitswesen, wo Vertrauen und Sicherheit eine Voraussetzung für Wachstum sind.

Europa reguliert nicht nur - es investiert in die Skalierung vertrauenswürdiger KI

Im Gegensatz zu früheren Wellen der digitalen Transformation kombiniert der EU-Ansatz für KI politische Maßnahmen mit proaktiven Investitionen.

Ein Bericht von Europarl räumt ein, dass die KI-Innovation beschleunigt werden muss, aber nicht auf Kosten der Patientensicherheit oder der ethischen Aufsicht.

  • 1,8 Milliarden Dollar an finanzieller Unterstützung für europäische KI-Startups (2023)
  • Die EU erhält nur 6 % des weltweiten KI-Risikokapitals, wobei die Investitionen viermal geringer sind als in den USA.

Zu den Finanzierungsinitiativen gehören:

  • Programm "Digitales Europa": 1,3 Milliarden Euro (2025-2027) für Testeinrichtungen und Zentren zur Entwicklung von Kompetenzen.
  • InvestAI: Teil der Strategie des digitalen Jahrzehnts, die darauf abzielt, die 200 Milliarden Euro für:
    • KI-Fabriken
    • Cloud-Dienste
    • Grenzüberschreitende Innovationsnetzwerke

Die EU-Institutionen schaffen ein günstiges Umfeld durch regulatorische Änderungen, die ethische KI-Systeme ermöglichen, die klinisch zuverlässig und skalierbar für SaMD sind.

Was dies für Medizintechnikunternehmen bedeutet

Die EU-Verordnungen zum AI-Gesetz und ihre wesentlichen geschäftlichen Auswirkungen stellen zwei Hauptpunkte dar, mit denen sich die Hersteller von Medizinprodukten befassen müssen.

Diese Punkte werden noch verstärkt, wenn sie mit den Normen IEC 62304 und IEC 82304 in Einklang gebracht werden, die für Struktur, strenge Klassifizierung, Kontinuität nach der Freigabe und Sicherheitsmanagement über den gesamten Software-Lebenszyklus sorgen.

Vor dem Markteintritt auf die Einhaltung der Vorschriften vorbereiten

  • Durchführung einer Lückenanalyse des AI-Gesetzes
  • Aktualisierung der technischen Unterlagen, RMFs und SOPs
  • Einbindung von Rückverfolgbarkeitsmechanismen bereits in der Entwurfsphase
  • Frühzeitige Einbindung der benannten Stellen für die Vorabbeurteilung
  • Plan für langfristige Überwachung nach dem Inverkehrbringen mit Rückkopplungsschleifen

Konformität in einen Wettbewerbsvorteil umwandeln

  • Unternehmen, die bei der Einhaltung von Vorschriften führend sind, sind auch führend bei Vertrauen und Marktanteil
  • Aufbau eines QMS mit AI Act-Anpassung ab der Konzeptphase
  • Positionierung von Transparenz und Überprüfbarkeit als Marktunterscheidungsmerkmal
  • CE-Kennzeichnung und AI-Konformität als Vertrauensbeweis nutzen

Häufig gestellte Fragen (FAQs) zum EU-KI-Gesetz für Medizinprodukte

Um den Herstellern von Medizinprodukten zu helfen, sich in der sich entwickelnden Landschaft der Compliance zurechtzufinden, finden Sie hier einige der am häufigsten gestellten Fragen:

  1. Was ist das EU-KI-Gesetz und wie wirkt es sich auf Hersteller von Medizinprodukten aus?
    Das EU-KI-Gesetz ist der weltweit erste umfassende KI-Rechtsrahmen. Er schreibt verbindliche Anforderungen für Risikomanagement, Data Governance, menschliche Aufsicht und Überwachung nach dem Inverkehrbringen vor, insbesondere für medizinische KI mit hohem Risiko wie Diagnosetools und Software zur klinischen Entscheidungsunterstützung. 
  2. Welche KI-Systeme in Medizinprodukten werden nach dem EU-KI-Gesetz als risikoreich eingestuft?
    Jedes KI-System, das zur Diagnose, Therapieplanung oder Patientenüberwachung eingesetzt wird, gilt als risikoreich. Dazu gehören auf maschinellem Lernen basierende SaMD, Deep-Learning-Modelle und KI-Tools, die Gesundheitsentscheidungen oder -ergebnisse beeinflussen. 
  3. Was sind die wichtigsten Konformitätsanforderungen für KI-gesteuerte Medizinprodukte im Rahmen des EU-KI-Gesetzes?
    Die Hersteller müssen Folgendes sicherstellen:
    - Rückverfolgbarkeit der Inputs und Outputs
    - Robuste Datenqualität und Governance
    - Menschliche Kontrollmechanismen
    - Vollständige technische Dokumentation
    - CE-Kennzeichnung sowohl nach MDR/IVDR als auch nach dem KI-Gesetz
  4. Wie verhält sich das EU-AI-Gesetz zur MDR (2017/745) und IVDR (2017/746)?
     

    Das EU-KI-Gesetz baut auf der MDR/IVDR auf, indem es KI-spezifische Anforderungen wie Erklärbarkeit, Algorithmentransparenz und Risikokontrollen vorsieht. Alle KI-gesteuerten Geräte müssen zwei Anforderungen erfüllen: die traditionellen Vorschriften für Medizinprodukte und die neuen KI-Standards.

    Marktführer betrachten das EU-KI-Gesetz nicht als Hürde, sondern als Blaupause für den Aufbau vertrauenswürdiger, leistungsstarker medizinischer Technologien. Sie berücksichtigen die Einhaltung der Vorschriften auf der Architekturebene und nutzen sie als Grundlage für ihre Strategie, ihr Marketing und ihre Markenpositionierung.

    Medizintechnikunternehmen müssen die KI-Gesetzesbereitschaft in ihrem gesamten Produkt- und Compliance-Ökosystem verankern, um einen Wettbewerbsvorteil zu erzielen. Wenden Sie sich noch heute an us , um Ihre Innovationen mit der Einhaltung von Vorschriften in Einklang zu bringen und die Bereitschaft zur Einhaltung von Vorschriften in einen Wettbewerbsvorteil zu verwandeln.