Quantcast
Channel: All – akquinet – Blog
Viewing all articles
Browse latest Browse all 133

Umsetzung klassischen maschinellen Lernens mit Dräger

$
0
0

Die Welt der großen Sprachmodelle – LLMs – entwickelt sich stetig weiter, fast täglich werden neue Modelle und Werkzeuge veröffentlicht, die die Ergebnisqualität verbessern und neue Anwendungsmöglichkeiten erschließen. Diese Modelle, die mit gigantischen Investitionen in Rechenleistung und Trainingsdatenaufbereitung aus dem Boden gestampft wurden, haben künstliche Intelligenz zu einem Werkzeug für jedermann gemacht. Sie eignen sich besonders gut für die Verarbeitung natürlicher Sprache, Stimmungsanalyse und Sprachübersetzung. Aktuell stehen vor allem die Anwendungsfälle Code- und Textgenerierung sowie -zusammenfassung, Bild-Analyse und Bild- und Video-Generierung im Vordergrund. In Verbindung mit Agenten, also Systemen, die eigenständig Aufgaben ausführen und Entscheidungen treffen können, haben sie das Potenzial zur Automatisierung und Umgestaltung von Geschäftsabläufen.

LLMs sind darauf ausgelegt, unstrukturierte Daten zu verarbeiten. Sie können Muster und Beziehungen in den Daten erkennen, ohne dass ihnen ausdrücklich gesagt wird, wonach sie suchen sollen. Diese Modelle bilden einen speziellen Ausschnitt aus dem großen Spektrum maschinellen Lernens, der sehr weit vorangetrieben wurde und weiter wird. Im Gegensatz dazu benötigen herkömmliche Algorithmen des maschinellen Lernens gekennzeichnete Trainingsdaten und sind oft auf menschliche Experten angewiesen, um die Merkmale zu definieren, die für die Analyse verwendet werden sollen. Die klassischen Anwendungsfälle, etwa zum Zwecke der Erkennung und Vorhersage bleiben weiterhin wichtig. In unserem jüngsten Projekt mit unserem Kunden Dräger haben wir das klassische maschinelle Lernen mit Hilfe eines neuronalen Netzes eingesetzt, um Vorhersagen auf der Grundlage medizinischer Daten zu treffen.

Was ist klassisches maschinelles Lernen?

Eine sehr passende Definition des Begriffs lieferte KI-Pionier Arthur Samuel bereits in den 50er Jahren: „Das Forschungsgebiet, das Computern die Fähigkeit verleiht, zu lernen, ohne ausdrücklich programmiert zu werden“.

Eine Programmierung ist in manchen Fällen, in denen etwas automatisiert werden soll, zu zeitaufwändig oder gar nicht möglich. Z.B. wenn es darum geht, etwas in Bildern zu erkennen. Während Menschen diese Aufgabe leicht bewältigen können, ist es schwierig, dafür einen Algorithmus zu entwickeln. Der Ansatz des maschinellen Lernens besteht statt dessen darin, dass der Computer durch Erfahrung lernt. Auf diesem Pfad zu verlässlichen Ergebnissen zu kommen, erfordert eine große Basis von Trainingsdaten, mit denen ein so genanntes neuronales Netz trainiert wird. Das ist ein Netz aus künstlichen Neuronen, das einem Gehirn nachempfunden ist. Die Neuronen werden während des Trainings so parametrisiert, dass ihre Gewichte und Bias-Werte durch wiederholte Anpassungen an die Trainingsdaten optimiert werden, um für alle Eingaben möglichst die gewünschten Ergebnisse zu liefern. Diese müssen zuvor definiert und den Daten zugeordnet werden. Ziel ist, dass das so trainierte Netz dann auch für ihm noch unbekannte Eingangsdaten die richtigen Ergebnisse liefert.

Die Herausforderung: Übersichtlichkeit im Alarmmanagement

Intensivstationen sind hochkomplexe Arbeitsumfelder, in denen Patienten kontinuierlich überwacht werden. Diese Überwachung generiert zahlreiche Alarme von Kabelverbindung getrennt bis hin zu Patient hat Kammerflimmern. Dabei können lebensbedrohliche Alarme in der Vielzahl weniger kritischer Warnungen untergehen – eine Herausforderung sowohl für das Pflegepersonal als auch für die Patientensicherheit.

Zusammen mit Dräger haben wir uns die Frage gestellt, ob es möglich sei, basierend auf den bereits ausgelösten Alarmen eine Vorhersage darüber zu treffen, ob an einem Bett bald ein lebensbedrohlicher Alarm ausgelöst wird. Ziel war es, eine Lösung zu entwickeln, die präventiv arbeitet und dabei dennoch in bestehende Systeme integrierbar bleibt. Dabei war die Echtzeitfähigkeit ein zentrales Ziel, um sicherzustellen, dass die Vorhersagen sofort verfügbar sind.

Die Datenbasis: Grundlage für Vorhersagen

Grundlage für das Projekt war eine umfangreiche Alarmdatenbank. Diese Daten wurden von den Geräten unseres Kunden auf Intensivstationen aufgezeichnet und bereitgestellt. Jeder Datensatz enthielt Parameter wie Alarmstufe, Auslösezeitpunkt, Alarmdauer, Messwert und den entsprechenden Schwellenwert. 

Um die Daten für das maschinelle Lernmodell nutzbar zu machen, waren mehrere Schritte der Datenaufbereitung notwendig:

  1. Bereinigung der Rohdaten:
    • Alarme, die durch technische Fehler oder eine fehlende Verbindung zum Patienten ausgelöst wurden, wurden entfernt, da sie keinen medizinischen Mehrwert haben.
    • Mehrfache Einträge desselben Alarms wurden entfernt, um die Datenbasis konsistent zu halten.
    • Die Bereinigungs- und Vorbereitungsprozesse führten zu einer Reduktion der Datenbasis um ca. 50%.
  2. Normalisierung und Transformation:
    • Numerische Werte wie Messparameter und Alarmdauer wurden mithilfe der Min-Max-Normalisierung auf einen Wertebereich zwischen 0 und 1 skaliert, um das Modelltraining zu erleichtern.
    • Kategorische Variablen wie Alarmstufen oder Parametereinheiten wurden mit Hilfe von One-Hot-Encoding in numerische Darstellungen umgewandelt.
  3. Sequenzbildung:
    • Da es sich bei der Alarmvorhersage um ein zeitliches Problem handelt, wurden die Alarme in sequenzielle Gruppen zusammengefasst. Diese Sequenzen repräsentieren die Alarme eines einzelnen Bettes über einen definierten Zeitraum.
  4. Target-Definition:
    • Das Ziel des Modells war es, vorherzusagen, ob innerhalb einer Sequenz ein lebensbedrohlicher Alarm auftreten wird.
      • Hierfür wurden die Alarmsequenzen am Ende zufällig gekürzt.
      • Der Alarm A, der unmittelbar nach der gekürzten Sequenz gefolgt wäre, diente als Ziel (Target) für die Vorhersage.
      • Wenn Alarm A ein lebensbedrohlicher Alarm war, sollte das Modell auf Basis der verbleibenden Sequenz einen lebensbedrohlichen Alarm vorhersagen.
      • War A hingegen kein lebensbedrohlicher Alarm, sollte das Modell entsprechend keinen lebensbedrohlichen Alarm vorhersagen.

Beispielsequenz ohne Normalisierung vor Target Definition

AlarmstufeParameter-IDParameterwertParametereinheitParameterobergrenzeParameteruntergrenzeAlarmdauer
SERART D220MmHg1105020
SERSpO285%1009022
SERART D160MmHg1105025
L-TVTVT00019
L-TVFVF00010
ADVART S163MmHg1609030

Beispielsequenz ohne Normalisierung nach Target Definition. Target Vorhersage eines lebensbedrohlichen Alarms gekennzeichnet durch Alarmstufe L-T (life-threatening)

AlarmstufeParameter-IDParameterwertParametereinheitParameterobergrenzeParameteruntergrenzeAlarmdauer
SERART D220MmHg1105020
SERSpO285%1009022
SERART D160MmHg1105025

Herausforderungen bei der Datenbasis

Trotz der umfangreichen Datenbasis wies der Datensatz auch Schwächen auf:

  • Es standen keine patientenspezifischen Informationen wie Alter, Geschlecht, Vorerkrankungen oder Vitalparameter wie der Puls zur Verfügung. Diese könnten wichtige zusätzliche Merkmale für präzisere Vorhersagen liefern.
  • Die Datenstruktur basierte ausschließlich auf Alarmereignissen, was bedeutet, dass das Modell keine direkten Einblicke in den klinischen Kontext oder den Zustand des Patienten hatte.

Die Qualität und Strukturierung der Daten waren entscheidend für die Leistungsfähigkeit des Modells. Die aufbereiteten Daten boten eine solide Grundlage für den Aufbau eines Proof-of-Concept-Modells, zeigten aber auch das Potenzial für künftige Verbesserungen durch erweiterte Datenquellen.

Am Ende dieses Prozesses stand ein deutlich reduzierter, strukturierter Datensatz, der für das Training eines Modells geeignet war.

Die Lösung: Ein Modell für spezifische Vorhersagen

Für das Projekt wurde bewusst auf künstliche neuronale Netze (KNN) gesetzt, da diese besonders gut geeignet sind, um komplexe Muster und Beziehungen in den Daten zu erkennen. Die Flexibilität von KNN ermöglichte es, auch mit weniger strukturierten oder hochdimensionalen Datensätzen präzise Ergebnisse zu erzielen.

Ansatz:

  • Merkmalsextraktion: Eingabemerkmale wurden aus den sequenzierten Alarmen extrahiert, darunter Alarmstufen, Messwerte und Alarmdauern.
  • Klassifikationsmodell: Das Modell wurde darauf trainiert, auf Basis einer Sequenz vorherzusagen, ob ein lebensbedrohlicher Alarm auftreten wird.

Eine besondere Herausforderung bestand darin, das Modell so zu trainieren, dass es sinnvolle Vorhersagen trifft, ohne dabei auf die später in der Sequenz auftretenden lebensbedrohlichen Alarme direkt zuzugreifen. Hierzu wurden die entsprechenden Alarme aus den Trainingssequenzen entfernt. Lediglich die Information, das die Sequenz zu lebensbedrohlichen Alarmen geführt hat, wurde erhalten. 

Ergebnisse und praktische Anwendung

Das Modell zeigte in der Validierungsphase eine Vorhersagegenauigkeit von bis zu 85%. Diese Genauigkeit ermöglicht keine praxistaugliche Anwendung, da das Krankenhauspersonal der Vorhersage komplett vertrauen können muss, um anhand dieser Handlungsentscheidungen treffen zu können. Es besteht jedoch Verbesserungspotenzial zum Beispiel indem Patientendaten wie Alter, Geschlecht, Vorerkrankungen oder auch der Puls in das Neuronale Netz als Eingabe einfließen würden und nicht nur Alarme.

Die Lösung wurde als Proof-of-Concept so integriert, dass sie über eine Schnittstelle in Microsoft Azure in bestehende Systeme eingebunden werden könnte. Azure unterstützt dabei, die angestrebte Echtzeitfähigkeit zu gewährleisten.

Allerdings zeigte das Projekt auch, dass klassische maschinelle Lernmethoden nur einen Teil der Lösung darstellen. Die Qualität der Ergebnisse hängt maßgeblich von der Aufbereitung und Strukturierung der Daten ab. Ebenso bleibt die Aufgabe, das Pflegepersonal bei der Interpretation und Nutzung der Vorhersagen einzubinden, eine wichtige Herausforderung.

Fazit: Realistische Anwendungen klassischer Ansätze

Das Projekt mit Dräger verdeutlichte, dass klassische Algorithmen des maschinellen Lernens gezielt in spezifischen Anwendungsfällen eingesetzt werden können. Allerdings zeigte sich auch, dass solche Ansätze ihre Grenzen haben, insbesondere wenn die verfügbare Datenbasis nur eingeschränkt aussagekräftig ist. Der Fokus lag auf einer pragmatischen Lösung, die die vorhandenen Daten nutzte und bestehende Arbeitsabläufe ergänzen sollte, wobei die erreichte Vorhersagegenauigkeit von bis zu 85 % noch nicht für eine praxistaugliche Anwendung ausreicht.

Damit wird deutlich, dass auch klassische KI-Ansätze weiterhin wertvolle Beiträge in der modernen Medizintechnik leisten können – insbesondere als Baustein in Entwicklungsprozessen oder Proof-of-Concept-Projekten. Für den Einsatz im Klinikalltag sind jedoch erweiterte Datenquellen und weiterentwickelte Modelle erforderlich, um den hohen Anforderungen an Präzision und Verlässlichkeit gerecht zu werden.

Mit Projekten wie diesem unterstreichen wir bei der akquinet tech@spree GmbH unsere Fähigkeit, innovative und praxistaugliche Lösungen zu entwickeln. Klassisches maschinelles Lernen ist dabei mehr als eine Alternative – es ist ein integraler Bestandteil unserer modernen Technologie-Toolbox.


Viewing all articles
Browse latest Browse all 133

Trending Articles