In der Echtzeitanalyse von hochaktuellen Daten schlummert für Sie ein riesiges Geschäftspotenzial. Im Regelfall ist der Ausgangspunkt der Echtzeitanalyse ein kontinuierlicher Fluss von Datensätzen, den beispielsweise Sensoren, RFID, GPS oder Kamerasysteme generieren. Bei der Bereitstellung dieser Daten kommt es zwar immer zu gewissen Verzögerungen im Sekunden- bis Minutenbereich – daher ist auch gerne von „near-realtime“ oder „nahezu“ in Echtzeit die Rede. Dennoch bietet Ihnen die Echtzeitanalyse ein schier unerschöpfliches Potenzial an digitalen Produkten und Services. Sie können Ihr Geschäft modernisieren und immer höhere Kundenansprüche bedienen.
Aber wie können Sie eine solche Echtzeitstrecke schnell und effektiv aufbauen? In diesem Blog-Beitrag möchte ich anhand eines Beispiels die Antwort liefern. Im konkreten Fall geht es um unseren Kunden BD Rowa, weltweit führender Hersteller von Medikamenten-Kommissioniersystemen, wie sie in Apotheken, Krankenhäusern und dem pharmazeutischen Großhandel zum Einsatz kommen. Der Maschinenbauer hat mit Hilfe von Echtzeitdaten den Kundensupport für seine hochkomplexen Anlagen vollkommen neu aufgestellt. Dabei kann die zugrunde liegende Architektur durchaus als Blueprint für ganz unterschiedliche Echtzeitservices betrachtet werden. Auf die folgenden Punkte werde ich eingehen:
- Technischer Aufbau der Lösung
- Übertragung der Daten
- Aufbereitung und Analyse der Daten
- Nutzen der Echtzeitservices für die Kunden
- Technische Vorteile
1. Technischer Aufbau der Lösung
Die Echtzeit-Lösung hat BD Rowa direkt in die Cloud geführt. Dabei haben wir aus verschiedenen Gründen vollständig auf Azure-Komponenten gesetzt:
- Die lokale Infrastruktur basierte bereits auf Microsoft-Technologien und ließ sich somit verhältnismäßig einfach anbinden.
- Die Mitarbeiter mussten sich nicht an eine neue Arbeitsumgebung gewöhnen.
- Die Bedienung und Konfiguration über die Verwaltungsoberfläche wurde als besonders nutzerfreundlich bewertet.
- Die Ausrichtung auf Business-Anwendungen, die bspw. eine mehrstufige Authentifizierung zum Schutz gegen Cyberangriffe bietet.
Basis der Lösung bildet nunmehr eine digitale Cloud-Plattform (Abb.), die die Daten von allen in Betrieb befindlichen Maschinen über einen Azure IoT Hub entgegennimmt und weiterverteilt. Bei diesen Daten handelt es sich beispielsweise um Messwerte zur Temperatur in den Kühleinheiten oder Informationen über die Fahrwege der integrierten Greifarme. Erzeugt werden die Daten mittels verschiedener Sensoren und Videokameras im Maschineninneren. Hinzu kommen Grundinformationen, die auf den Maschinen hinterlegt sind, wie etwa die Abmessung und Konfiguration.
Anhand von Routing-Parametern entscheidet der IoT Hub, welche Folgeschritte durchzuführen sind. Das kann die Weiterleitung zu einer API sein, die Ablage in einem Blob Storage oder auch die direkte Information eines Supportmitarbeiters bzw. Kunden. Zudem lässt sich über den IoT Hub ein direkter Rückkanal zu den einzelnen Maschinen abbilden, auf dessen Funktion ich später noch eingehen werde. Indes dient der Blob Storage der Datenablage. So ist sichergestellt, dass die Daten auch zur Verfügung stehen, wenn keine Verbindung zu den Anlagen beim Kunden vor Ort besteht. Gleichzeitig gibt es eine zentrale Quelle, auf die jeder Supportmitarbeiter zugreifen kann, ohne eine direkte Verbindung zu den Anlagen herstellen zu müssen. Abgerundet wird der Lösungsaufbau durch die Anbindung des unternehmenseigenen CRMs. Denn: Meist müssen Sie Echtzeitdaten noch durch Stammdaten anreichern, damit sie verständlich sind und die erforderliche Aussagekraft erhalten.
2. Übertragung der Daten
Je nach Bedarf erfolgt der Datenversand von den Maschinen:
- zeitgesteuert
- eventbasiert
- oder kontinuierlich.
Zeitgesteuert werden vor allem die Stammdaten der Maschinen versendet, wie Konfiguration, Ausbaustufe oder kumulierte Statistiken. Diese werden nächtlich erstellt und jeden Tag einmal übertragen. Ein eventbasierter Versand erfolgt primär bei Fehlern. Das können herkömmliche Benachrichtigungen über das System sein. Es kann sich aber auch um Logfile-Listen rund um einen Fehler handeln. Eine kontinuierliche Übertragung erfolgt schließlich bei kritischen Daten, wie zum Beispiel den Temperaturen der Kühlschränke. Das System gleicht den entsprechenden Datenfluss laufend mit den gesetzlichen Grenzwerten ab. Abweichungen lösen umgehend eine Benachrichtigung aus, sodass direkt gehandelt werden kann. Im Gegenzug können sich die Supportmitarbeiter über die kontinuierliche Verbindung auch live auf die Maschinen aufschalten. Hierzu stellt der IoT Hub eine gesicherte Verbindung zwischen der Maschine und dem betreffenden Rechner her. In der Folge erhält der Nutzer den Zugriff auf den in der Maschine integrierten Computer wie auch die an den Greifarmen installierten Kameras.
Diese Form der Datenübertragung hat verschiedene Vorteile. Da ist zum einen die Geschwindigkeit: Bereits wenige Sekunden, nachdem die Daten an den Hub übergeben wurden, kann sie der Mitarbeiter über ein zentrales Web-Portal abrufen. Das gilt sogar für die umfangreichen Datenvolumina der Videos aus dem Maschineninneren. Zum anderen kann die Lösung mit unterschiedlichen Datenformaten umgehen. Das Spektrum reicht von Textnachrichten bis zu Binärdaten.
3. Aufbereitung und Echtzeitanalyse der Daten
Wie zuvor erwähnt, können die Servicemitarbeiter schlussendlich sämtliche Daten über eine einheitliche Web-Applikation abrufen. Kernelement bildet hierbei eine selbstentwickelte Schnittstelle bzw. API, die die Daten bedarfsgerecht aufbereitet. Meist handelt es sich um JSON- bzw. Text-Formate, die von der API zerlegt, aufgeteilt und in einer Datenbank für die weitere Verwendung in der Web-App zur Verfügung stehen. Teilweise werden Daten auch historisiert, wenn innerhalb der App der Bedarf besteht. Hierzu zählen etwa die Fehlermeldungen.
Ebenso differenziert die Schnittstelle zwischen den Echtzeitdaten und den Stammdaten der Maschine. Zu den Stammdaten gehören unter anderem die Maschinen-ID und der Maschinentyp. Die API reichert diese um weitere Stammdaten aus dem CRM an, wie zum Beispiel der Kundennummer und dem Installationsdatum. Somit werden sämtliche eintreffenden Daten für die unmittelbare Nutzung in der App optimiert. In der Folge können die Support-Mitarbeiter auf diesen Daten manuelle Analysen zu Fragestellungen vornehmen, die aus Fehlermeldungen, Kundenanfragen oder Auffälligkeiten in Berichten resultieren. Zusätzlich speichert das System die vollständigen Rohdaten ohne strukturelle Vorgaben im Blob Storage ab. Dieser Datenbestand dient vor allem den Data Scientists des Unternehmens für explorative Analysen. Gleichzeitig bleibt das gesamte Material für mögliche Weiterentwicklungen und künftige Anwendungsfälle erhalten.
Für die vollständige Aufbereitung und Nutzung historisierter Daten beinhaltet die Gesamtlösung noch ein BI-System. Hier werden die Rohdaten über mehrere Schichten aufbereitet und als Power BI Berichte in der Support-App bereitgestellt. Die Berichte liefern den Mitarbeitern z.B. Informationen und Kennzahlen zur Kapazität, Auslastung und Erreichbarkeit der Maschinen. Hinzu kommen Fehlerberichte etwa zu Updates, Fahrbewegungen der Greifarme oder auch Fehlerhäufigkeiten. Es handelt sich um interaktive Berichte, sodass die Mitarbeiter zu allen dargestellten Informationen auch vertiefende Ad-hoc-Analysen vornehmen können.
4. Nutzen der Echtzeitanalyse für den Kunden
Die Verfügbarkeit all dieser Informationen in Echtzeit und über eine einheitliche Nutzeroberfläche führt zu einer massiven Verbesserung der Reaktionszeiten. Zur Orientierung: In der Vergangenheit wurden die Maschinendaten per VPN-Verbindung auf zentralen Hardware-Servern gesammelt und dort zu definierten Zeitpunkten aufbereitet bzw. weitergeleitet. So haben „aktuelle“ Berichte die Servicemitarbeiter mitunter erst nach zwei bis drei Tagen erreicht. Das hatte zur Folge, dass der Kunde bei Störungen meist aktiv auf den Support zugehen und bereits alle verfügbaren Informationen vorhalten musste. Erst dann begann die Fehlersuche.
Inzwischen können Kundenprobleme dank des kontinuierlichen Datenstroms, der Echtzeitanalyse sowie eventbasierter Benachrichtigungen proaktiv und sofort gelöst werden. Der Rückkanal ermöglicht es sogar, aus der Ferne erforderliche Arbeiten vorzunehmen. Ebenso können Anfragen an die Hotline mit Hilfe der stets aktuellen App-Daten ohne große Wartezeiten beantwortet bzw. bearbeitet werden. Dabei haben die Mitarbeiter auch unmittelbaren Zugriff auf alle wichtigen Details zur Konfiguration und der Maschinenhistorie, etwa in Form von Grafiken, Bauplänen und Fotos. Nicht zuletzt ermöglichen es Prognoseszenarien, Störungen zu vermeiden, bevor sie auftreten. Infolgedessen werden die Stillstandszeiten der Kundenanlagen zunehmend gesenkt.
5. Technische Vorteile
Der neue Ansatz wirkt sich aber nicht nur positiv auf die Verfügbarkeit der Anlagen sowie den Kundenservice im Allgemeinen aus. Der Datentransfer über die Cloud erweist sich als sehr viel stabiler gegenüber dem VPN-Netzwerk. Dazu profitiert unser Kunde von einem deutlichen Kostenvorteil. Teure Hardware-Investitionen entfallen, der Aufwand für Updates und Wartung ist stark reduziert. Die Azure Services werden nach Bedarf genutzt und bezahlt. Sie können diese jederzeit den aktuellen Anforderungen entsprechend skalieren. Entsprechend stellt der Cloud-Ansatz auch sicher, dass sich die Lösung künftig in alle Richtungen erweitern lässt. So ist bereits eine Applikation geplant, mit der die Kunden von BD Rowa eigenständig aus der Echtzeitanalyse resultierende Maschineninformationen in aufbereiteter Form abrufen können. Die Echtzeitanalyse wird auf diesem Weg zum konkreten Kundenangebot – oder anders ausgedrückt: BD Rowa erweitert sein Angebotsportfolio und bietet in Zukunft neben Produkten auch digitale Services an.
Möchten Sie wissen, wie Sie sich Echtzeitanalysen und das Internet of Things für Ihr Geschäft zu nutze machen können? Dann informieren Sie sich weiter auf der Seite Internet of Things oder besuchen Sie unseren Workshop Internet of Things: IoT-Use-Cases für Ihr Geschäft.
Kommentare (0)