Predictive Analytics ist seit einigen Jahren auf dem Vormarsch und hat sich in vielen Bereichen als sehr nützlich erwiesen: Durch die Analyse historischer und aktueller Daten können Muster erkannt und zukünftige Ereignisse vorhergesagt werden. Doch wie kann sichergestellt werden, dass die Analyse der Daten auch nützliche Ergebnisse liefert?
Was ist Predictive Analytics?
Predictive Analytics ist eine datenbasierte Vorhersage mit Hilfe von Werkzeugen wie Machine Learning (ML). Dabei wird zunächst eine Datenanalyse von Sensordaten und anderen Informationen durchgeführt, um die Korrelationen der Vorhersage richtig zu setzen. Das Elegante an Predictive Analytics ist, dass Größen, die möglicherweise nicht einfach zu messen sind, kontinuierlich vorhergesagt werden können. Ein Beispiel ist die Vorhersage von Analysedaten in einem laufenden Prozess, die im Labor nur alle 8 Stunden gemessen werden können, mit Predictive Analytics aber jede Minute.
Welche Fallstricke gibt es bei Predictive Analytics?
Die erste Hürde ist die richtige Definition von Einflüssen und Auswirkungen. Wenn hier etwas falsch läuft, kann und wird Predictive Maintenance keine brauchbaren Ergebnisse liefern. Wie bei jedem datenbasierten Modell gilt auch bei Predictive Analytics: Garbage in, garbage out. Wenn z.B. eine resultierende Prozessgröße als Einflussgröße genommen wird, werden durch Predictive Analytics natürlich falsche Zusammenhänge erkannt. Dies führt dann im laufenden Betrieb zu falschen Ergebnissen, z.B. die Produktqualität beeinflusst die Produktqualität.
Zweitens werden im industriellen Umfeld bei fehlendem Fachwissen häufig alle verfügbaren Sensordaten in das Modell geworfen. Dies führt oft zu scheinbar guten Ergebnissen, die aber im laufenden Betrieb keinen Mehrwert bringen, weil die Zusammenhänge zwischen Einflüssen und Ergebnissen nicht mehr nachvollziehbar sind oder völlig an der Realität vorbeigehen.
Im Zusammenhang mit zu vielen Eingangsgrößen steht häufig auch das Overfitting: Wie eine Polynomgleichung kann auch ein ML-Modell komplexer gestaltet werden, um eine bessere Vorhersage für die vorhandenen Daten treffen zu können. Dies kann aber im Extremfall zu einem Overfitting führen, d.h. das Modell bildet nicht mehr den allgemeinen Trend ab, sondern lernt die Daten sehr gut und bildet nur noch die Trainingsdaten ab. Werden viele Eingangsgrößen gewählt, muss die Modellkomplexität erhöht werden, um die Zusammenhänge besser abbilden zu können. So wird das Modell immer komplexer, bis keine Aussagen mehr getroffen werden können.
Wie stellen wir bei KDS sicher, dass Predictive Analytics funktioniert?
- Analyse der Anwendungsfälle: Zunächst schauen wir gemeinsam, welche konkrete Fragestellung mit Predictive Analytics beantwortet werden soll und welche Daten dafür zur Verfügung stehen. Wenn sich logische Zusammenhänge herstellen lassen, lohnt es sich, die Auswahl der Größen, die in das Machine-Learning-Modell einfließen, so weit wie möglich zu reduzieren.
- Datenauswahl: Mit unserem verfahrenstechnischen Wissen fließen nur Daten in das Modell ein, die auch einen direkten Einfluss auf den analysierten Prozess haben können. Diese werden in Diskussionen mit Ihnen, dem echten Experten für den Prozess, ermittelt. Um mögliche unbekannte Einflussgrößen zu identifizieren, diskutieren wir in Workshops, welche Informationen auf Basis unseres Fachwissens und Ihrer Erfahrung noch in das Modell aufgenommen werden müssen.
- Validierung des Modells: Unsere Modelle werden explizit auf Overfitting getestet, um die Robustheit auch im laufenden Betrieb zu gewährleisten.
Sie möchten Predictive Analytics in Ihrem Unternehmen erfolgreich einsetzen?
Dann kontaktieren Sie uns gerne und wir kommen zu Ihnen vor Ort, um den konkreten Anwendungsfall mit Ihnen zu analysieren und zu diskutieren.