Mittelständischer Maschinen- und Anlagenbau – Das ist der Grundstein für Predictive Maintenance

node-divider.png

Klicken Sie auf den unteren Button, um den Inhalt von Spotify Player zu laden.

Inhalt laden

Podcast auf Spotify anhören
Podcast auf Apple anhören
Podcast auf Apple anhören

Folge 70 auf einen Blick (und Klick): 

 

  • [06:54] Herausforderungen, Potenziale und Status quo – So sieht der Use Case in der Praxis aus
  • [14:32] Lösungen, Angebote und Services – Ein Blick auf die eingesetzten Technologien
  • [30:30] Ergebnisse, Geschäftsmodelle und Best Practices – So wird der Erfolg gemessen

Zusammenfassung der Podcastfolge

Sich weiterzuentwickeln und neue Standbeine zu finden und diese auszubauen, rückt für immer mehr Unternehmen aus dem Maschinen- und Anlagenbau in den Fokus.

 

Der IT-Dienstleister consileo hat es sich zur Aufgabe gemacht, Software zu erstellen, zu gestalten, bereitzustellen und zu unterstützen. Sowohl im IoT- als auch im Cloud-Umfeld. Als weiteres Segment beschäftigt sich consileo mit den Themen Security und Compliance. Neue Technologien, mitentwickelt vom Maschineningenieur und Geschäftsführer Sebastian Fischer, sollen bei Kunden für spürbare und messbare Ergebnisse sorgen.

 

Auf der anderen Seite gibt es Elastic, eine Art »Booster« für Suchanfragen oder auch Analytics-Plattform. Elastic unterstützt Unternehmen und Einzelpersonen und bietet ihnen Softwarelösungen an, um Datenmengen in größter Ausführung nahezu in Echtzeit zu verarbeiten. Mit welchen Tools Daten verarbeitet werden, wird uns David Schreckenberg, Enterprise Account Executive, im Detail erklären.

 

Wie diese beiden Unternehmen zusammengefunden haben, was Spezialmaschinenhersteller Tracto-Technik zusammen mit Elastic für eine IoT-Plattform entwickelt hat und wie in diesem Zusammenhang Datenaufnahme, Verarbeitung, Auswertung und Analyse funktioniert, erfahren wir in der heutigen Folge des IoT Use Case Podcasts.

 

Podcast Interview

Willkommen Sebastian und David. Sebastian, was ich sehr spannend fand, als wir uns kennengelernt haben, war deine persönliche Reise. Weil du sowohl langjährige Berufserfahrung in einem mittelständischen Maschinenbauunternehmen hast, aber dich auch speziell mit IoT-Themen und Business Development beschäftigt hast. Das ist vor allem im Kontext neuer Geschäftsbereiche sehr spannend. Ich glaube es geht sehr vielen Leuten da draußen so, dass sie in diesem Segment neu sind, und sich da gerade einarbeiten. Wie war diese Reise für dich?

Sebastian

Das war sehr spannend, keine Frage. Ich bin ein klassischer Maschinenbauingenieur und mit dem Thema der Digitalisierung kommt man in ganz neue Gebiete rein. Es hängt auch ein bisschen damit zusammen, dass ich persönlich sehr affin mit neuen Technologien bin, neue Dinge gerne ausprobiere und schon immer innovativ gedacht habe. Dann fällt es einem vielleicht einfacher, in die Themen reinzukommen. Natürlich ist das eine neue Welt. Softwareentwicklung, die ganzen Begrifflichkeiten, die sich da ergeben. Die Arbeitsweise ist anders, die Technologien sind ganz neu. Es bedarf auch viel Zeit sich da einzuarbeiten.

 

Neben der eigentlichen Entwicklung kommen dann auch Themen aus rechtlichen Rahmenbedingungen. Wie geht man mit dem Thema Marketing um? Wie vertreibt man digitale Produkte überhaupt? Schon steckt man im Thema Business Development drin, wo man jedoch auch entfernt von der Entwicklung ist.

 
Sehr richtig. Es ist ein wirklicher Buzzword-Jungle mit diesen ganzen Begrifflichkeiten, wo wir mit aufräumen wollen.
 
Für den Kontext zu deiner Firma. Du bist für consileo zuständig in der Geschäftsführung. Was machst du dort genau und was macht consileo?
Sebastian
Consileo ist ein IT-Dienstleister, der sich im Wesentlichen um zwei Bereiche kümmert: Das ist einmal das Thema der Softwareentwicklung, also kreative Dinge neu entwickeln, gerade im IoT- und Cloud-Umfeld. Auf der anderen Seite kümmern wir uns um Themen, rund um Compliance und rund um Security. Gerade die beiden Themen passen sehr gut zusammen. Wenn man eine Neuentwicklung startet, muss man direkt auch über Sicherheit nachdenken. Es gibt direkte rechtliche Rahmenbedingungen, DSGVO. Meine Aufgabe ist an der Stelle, einen neuen Geschäftsbereich aufzubauen, der genau diese Themen für Maschinenbauer und auch für das produzierende Gewerbe nach vorne bringt.
 
Mit meinem Maschinenbau-Background und Digital Know-how kenne ich die Arbeitsweise der Unternehmen. Das ist eine ideale Kombination, um mit dem Kunden spannende Themen zu starten, wie ich finde.
 
Das heißt, dass du von der Kundenseite in die Dienstleisterseite gewechselt bist, oder?
Sebastian
Das kann man so sagen, ja. Das finde ich auch sehr spannend, weil man jetzt die Möglichkeit hat, Kunden direkt von null an und bei verschiedenen Projekten und Themen begleiten und nicht nur an einem einzelnen Thema festzuhängen. Diesen Gedanken fand ich sehr reizvoll.
 
Auf jeden Fall. David von der Firma Elastic ist heute auch dabei. Ich würde gerne wissen, wie seid ihr zwei zusammengekommen?
Sebastian
Der Dienstleister, der damals die Entwicklung gemacht hat, hatte die Idee, Elastic für den Fall einzusetzen, was eigentlich eher untypisch ist. In diesem Zusammenhang ist der Kontakt zu David entstanden. Wir haben uns sofort inhaltlich und auch persönlich sehr gut verstanden. David fand, so denke ich, den Case ganz interessant. So hat sich das spontan ergeben, und wir reden mittlerweile sehr gerne und häufig miteinander.
 
David, du bist bei Elastic sogenannter Enterprise Account Executive. Du baust langfristige Partnerschaften mit Kunden aus. Elastic ist zunächst ein börsennotiertes Unternehmen. Ihr seid nicht irgendein Unternehmen, sondern mit dem Fokus auf Softwarelösungen, die Daten in Echtzeit und in großem Umfang verarbeiten und umgehen können. Ihr arbeitet mit riesigen Brands zusammen: Cisco, eBay, Goldman Sachs, Microsoft, NASA, you name it; ich glaube Wikipedia ist auch mit dabei. Auch Namen, die man nicht direkt mit der Industrie verbinden würde.
 
Was macht ihr mit dem mittelständischen Maschinenbau zusammen?
David
Ich war damals auch überrascht, als Sebastian mit seinem Kollegen zusammen auf uns zukam, weil wir als Technologie bei vielen Kunden in vielen Bereichen eingesetzt werden. Wir sind im Kern eine Suchtechnologie, man könnte auch sagen, eine Analytics-Plattform. Immer wenn es darum geht, große und kleine Datenmengen performant durchsuchbar zu machen. Ob das jetzt eine Suche im Web-Shop ist oder die Suche auf anomale Zustände in einer IoT-Landschaft, IT-Landschaft oder Cyber Security, ob dort irgendwas passiert, was da nicht passieren soll. Dafür ist Elastic eine sehr gut geeignete Technologie.
 
Als Sebastian auf mich zukam und ich überrascht war – weil ich selbst nicht aus dem Bereich Maschinenbau komme, dafür aber Energietechnik, und da viele Jahre gearbeitet habe –, war ich erst mal sehr beeindruckt, was die beiden bei Tracto auf die Beine gestellt haben. Eben nicht in einem IoT Use Case, das Monitoring von Geräten, von Maschinen, die Tracto baut. Das war schon sehr spannend und beeindruckend.
 

Herausforderungen, Potenziale und Status quo – So sieht der Use Case in der Praxis aus [06:54]

Einerseits wollen wir eure Technologien verstehen, gerade auch mit den Suchtechnologien, was es damit auf sich hat. Andererseits von consileos Seite, was es da für Projekte gibt. Sebastian, was für Use Cases und Projekte aus der Praxis hast du heute mitgebracht?

Sebastian

Es geht um den Kunden Tracto. Tracto baut Spezialmaschinen zur grabenlosen Leitungsverlegung. Also wenn Rohre unter Straßen oder Flüssen grabenlos verlegt werden müssen, wo man den Verkehr nicht unterbrechen möchte, wo vielleicht auch Hindernisse im Weg sind, da stellt Tracto die passenden Maschinen her. Tracto hatte an der Stelle das große Ziel, das Thema »Digitalisierung« weiter voranzutreiben. Digitalisierung auf mehreren Ebenen im Unternehmen, unter anderem auch im Produktbereich. Man hat sich die Frage gestellt: Was bedeutet die Digitalisierung im Produkt? Sowohl für den Kunden als auch für den Endanwender, der die Maschine letztlich benutzt. Welchen Nutzen kann Tracto auch für sich als Unternehmen aus der Digitalisierung aus den Themen ziehen?

Worum geht es im Konkreten? Tracto hat eine IoT-Plattform mit uns zusammen entwickelt und aufgebaut, wo Maschinendaten erhoben werden. Diese werden auf verschiedenen Ebenen genutzt. Zum einen nutzt der Endanwender sie, um zum Beispiel Boarddaten zu protokollieren oder auch um Dinge, wie Flotten-Management, zu machen. Zu sehen, wie geht es der Maschine geht und was sie macht. Natürlich auch, um interne Serviceabläufe und Serviceprozesse bei Tracto intern zu optimieren. Ich will noch nicht von Predictive Maintenance sprechen, aber erst mal die Möglichkeit zu haben, anhand von Daten zu sehen, was machen die Maschinen im Feld? Wie geht es den Maschinen? Welche Fehler kommen auf? Welche Anomalien sieht man möglicherweise in den Daten? Das macht es sehr spannend und das bringt Tracto in die Lage, zukünftig eher pro-aktiven Service, anstatt reaktiven Service zu machen.

 

Wenn man das zusammennimmt, hat man einen super Nutzen. Einmal auf Kundenseite, der automatisch Daten der Maschinen bekommt, um Daten zu protokollieren. Aber auch für Tracto als Kunde selber, der in der Lage ist, besseren Service zu bieten.

 
Du hast gesagt, es geht um riesige Spezialmaschinen und Bohrungen. Kannst du den täglichen Job von eurem Kunden beschreiben? Diese Maschinen stehen irgendwo im nirgendwo auf der Straße, auf einer Baustelle und da wird gebohrt?
Sebastian
Genau. Tracto selber verkauft die Maschinen an ihre Kunden. Und die Kunden von Tracto führen Bohrungen durch. Die Maschine kann also im Feld oder auf einer Straße stehen und führt eine Bohrung durch. Tracto-Technik selber muss für den Service sorgen. Wenn die Maschine mal defekt ist oder einen Ausfall hat, muss Service an der Maschine geleistet werden. So muss man das ein Stück weit unterscheiden.
 
Wenn wir über Themen wie Service und so weiter reden, was sind hier zunächst Herausforderungen, womit Tracto gestartet ist? Wo sie erkannt haben: Oh, hier sind Potentiale, die man heben kann in den einzelnen Prozessen?
Sebastian
Eine der Herausforderungen bei Tracto war, dass die Maschinen blind im Feld sind. Das heißt, man hatte keinerlei oder wenig Informationen über den Zustand der Maschinen im Feld. Immer wenn es zu einem Ausfall oder Fehler kam, hat der Kunde aktiv bei Tracto angerufen und dann wurde eine Art telefonisches Troubleshooting durchgeführt. Das bindet Kapazitäten, das bindet aber auch Know-how.
 
Wenn man zukünftig skalieren will, mehr Maschinen ins Feld bringen will, mehr Maschinen verkaufen möchte, dann muss ich dafür sorgen, dass meine Serviceorganisation mitwachsen kann. Das kann sie nicht, wenn sie an bestimmten Know-how-Trägern hängt und an manuellen Prozessen. Das war letztendlich der Auslöser zu sagen: Okay, Tracto muss sich da was überlegen, muss sich solchen Themen wie Datensammeln, IoT-Themen stellen – auf der anderen Seite auch die Endkunden der Tracto, die auch Anforderungen haben an Dokumentationen. Wenn man sich vorstellt, dass man eine Bohrung handschriftlich dokumentiert – in der heutigen Zeit fast nicht mehr vorstellbar –, wenn die Daten im Prinzip da sind. So hat man direkt mehrere Nutzen geschaffen. Einmal zum Kunden hin zu sagen: Er hat digitale Möglichkeiten, hat eine Prozessverbesserung und eine Prozessvereinfachung. Auf der anderen Seite Tracto selber, die ihre Prozesse verschlanken und vereinfachen können.
 
Die Serviceorganisation, die wachsen muss, sehr guter Punkt. Da kommt auch die Frage, warum mache ich IoT? Es gibt bereits Fernwartung. Das Thema »Ich habe einen Servicevertrag, aber warum jetzt IoT?«. Warum sollte ich einen Schritt weiter gehen? Am Ende geht es eben auch um eine Serviceorganisation, die von manuellen Prozessen abhängig ist oder auch Wissen, was in Köpfen steckt und so genutzt werden kann, oder?
Sebastian
Absolut. Gerade das Thema Skalierung und Internationalisierung muss man sich mal bewusst machen. Selbst Maschinen, die weltweit irgendwo stehen, wollen 24/7 Unterstützung, Support und Service haben. Das kann ich anders gar nicht mehr abbilden, als es digital zu machen.
 
IoT, das ist der nächste konsequente Schritt. Themen wie Fernwartung, die gab es vorher schon, das ist nichts Neues. Die konsequente Weiterentwicklung ist IoT mit aktivem Monitoring; mit aktiven Alarmierungen, die vielleicht hochkommen, wenn Dinge nicht normal laufen.
 
Am Ende geht es immer um Daten. Kannst du uns abholen, welche Daten hier interessant sind? Welche sind besonders spannend für euren Kunden?
Sebastian
Im Wesentlichen sind es die Betriebsdaten der Maschine. Die klassischen Betriebsdaten wie Motordaten von einem Diesel-Motor, der an Bord ist … welche Motortemperaturen haben wir? Welche Hydraulikdrücke sind vorhanden? Welche Drehmomente, welche Kräfte ergeben sich da? Welche Daten sind für den eigentlichen Bohrprozess relevant? Das geht bis hin zu Fehlern, die die Maschine produziert, die man auch sehen möchte.
 
Eine Frage noch zu den Herausforderungen von eurem Kunden. Es geht bei euch auch darum: Ihr habt ein System aufgebaut und den Kunden dabei begleitet. Was waren hier die Anforderungen, wo euer Kunde gesagt hat: Das muss unbedingt sein! Das brauchen wir, das muss funktionieren!
Sebastian
Am Ende waren mehrere Dinge wichtig. Ein zentraler Punkt ist, dass die Maschinen im Feld stehen. Wenn die Maschine im Feld steht, kann es durchaus passieren, dass Maschinen in Regionen stehen, wo die Netzabdeckung nicht einhundert Prozent ist. Die Maschinen mussten in der Lage sein, Daten zu puffern und nachladen zu können, damit ich den vollständigen Blick habe.
 
Was auch eine wichtige Anforderung war, die Darstellung der Daten sollte auch in einfacher Form erfolgen und für verschiedene Unternehmensbereiche zugänglich sein. Wir haben viel über Service gesprochen, aber letztendlich ist das Produktmanagement daran interessiert: Wie arbeiten die Maschinen im Feld? Was sind die durchschnittlichen Betriebsstunden pro Monat? Oder die Vertriebsorganisation möchte gerne wissen, wie viel Betriebsstunden ist eine Maschine gelaufen, damit ich pro-aktiv auf den Kunden zugehen kann, um eine neue zu verkaufen.
 

Lösungen, Angebote und Services – Ein Blick auf die eingesetzten Technologien [14:32]

Ihr habt gemeinsam mit Tracto die IoT-Technologie, beziehungsweise die Architektur aufgebaut und die App mitentwickelt. Ich würde gerne, dass wir uns von der Datenaufnahme, über die Verarbeitung, bis hin zur Auswertung und Analyse hangeln. Wie funktioniert die Datenaufnahme und mit welcher Hardware?

Sebastian

Die Daten, die entstehen, kommen im Wesentlichen durch Sensoren und Aktuatoren auf der Maschine. Drucksensoren, Positionssensoren und Drehzahlsensoren liefern Signale an eine Maschinensteuerung, einer SPS-Steuerung, die wiederum die Daten an ein Gateway weiterreicht. Das ist ein PC, der die Daten entgegennimmt, entsprechend verarbeitet und diese dann auch zur Cloud sendet. Dieser sorgt aber auch dafür, dass Daten zwischengepuffert werden, falls keine Netzabdeckung da ist. Das ist der Haupteinsatzfall, warum wir auf Elastic zugekommen sind. Diese bieten eine sehr schlanke und elegante Lösung an.

 
David, nun habe ich die Daten in diesem Gateway und diese werden über ein entsprechendes Netz verteilt, aber wie funktioniert die Datenverarbeitung genau mit euch?
David
Im konkreten Fall ist es so, dass wir eine Komponente nutzen, die sich Filebeat nennt. Das ist aus Software-Sicht ein sehr leicht gewichtiges kleines Ding, das man da installiert, wo die Daten abgegriffen werden müssen. Nehmen wir einfach den kleinen PC, der auf den Maschinen sitzt und von da die Daten in Richtung Elasticsearch schickt. Filebeat ist eine Komponente aus dem Ingest Layer von unserem Plattformgedanken. Es gibt in der Plattform verschiedene Ebenen. Als Beispiel die Visualisierungsansicht, wo man Analysen bauen und sich verschiedene Dinge anzeigen lassen kann. Auch die Datenhaltung, das ist das eigentliche Elasticsearch, was bei uns in der Firmierung im Namen steckt. Darunter dann die Schicht, die sich aus verschiedenen kleinen Softwarekomponenten zusammensetzt. Ich habe bereits Filebeat genannt, aber es gibt auch andere Möglichkeiten, die relativ flexibel, da wo Daten entstehen, installiert werden können, um sie abzugreifen und in Richtung Elasticsearch zu schicken.
 
Filebeat im Sinne von »File« für »Ordner«, richtig? Eine Art Datenpakete, die gesendet werden.
David
Genau, richtig. Wie Log-Dateien, normale Dateien. Im Fall von Tracto, werden sie über Filebeat an unseren Managed Cloud Service geschickt. Wir bieten unsere Technologie auf verschiedene Arten an. Bei Tracto ist es die Variante, wo wir die Plattform as-a-Service in der Cloud zur Verfügung stellen. Das hat für Tracto, Sebastian und consileo den Vorteil, dass es sehr flexibel hoch und runter skalierbar ist. Ohne sich um Compute Gedanken machen zu müssen – das ist heutzutage kein unheikles Thema mehr. Lieferzeiten und so weiter, da kann man flexibel starten. Klein starten, und mit der Zeit reinwachsen.
 
Das heißt, ich habe die SPS als Datenquelle mit den einzelnen Sensoren und Aktoren. Dann werden die Zustandsinformationen, Fehlerprotokolle, was auch immer, an euren Elastic Stack geschickt, wo diese ganzen Maschinendaten aggregiert und verarbeitet werden, sodass sie im nächsten Schritt analysiert werden können. Sebastian, hast du noch Ergänzungen aus der Praxis?
Sebastian
Was wichtig an der Stelle ist, sowohl für Tracto als auch für uns als Implementierungspartner, ist die Möglichkeit, die Daten schnell zu verarbeiten und schnell abzurufen. Das ist gerade für den Analysefall sehr wichtig. Ich kann zwar sehr schnell Daten in die Datenbank reinschreiben, aber auch rausholen. Wenn ich gerade komplizierte Anfragen an die Datenbank stellen will, wie zum Beispiel: Gib mir den Mittelwert aller Betriebsstunden aller Maschinen des letzten Monats – dann möchte ich das schnell und effizient haben. Das war ein wesentlicher Faktor, auf Elastic zu setzen, denn genau dafür ist die Datenbank gemacht.
 
Wir sprechen über viele und schnelle Daten. David, wie handhabt ihr diese Daten mit eurer Technologie? Wozu ist das wichtig?
David
Man muss sagen, es ist nicht immer wichtig, aber in immer mehr Use Cases wird es wichtig, dass man nahezu in Echtzeit Daten durchsuchbar machen kann. Wie wir das machen, das ist im Grunde das Secret Source von Elastic. Es ist die verteilte Logik. Elastic ist eine sehr skalierbare Plattform. Es ist eigentlich egal, ob wir auf ein paar Gigabyte an Daten gucken oder ob wir auf etliche Petabyte an Daten gucken. Dadurch, dass es gut horizontal skalierbar ist, im Sinne von: Ich mache nicht eine Maschine immer größer, weil man irgendwann physikalisch an Limitation stößt. Sondern ich kann Compute parallelisieren. Ich kann Compute nebeneinanderstellen und dadurch performant größte Datenmengen abbilden.
 
Das ist der Grund, warum wir in Projekten, wo hohe Anforderungen an die Such-Performance gestellt sind, wo man schnell mit Daten arbeiten will – ob das jetzt ein IoT Use Case ist oder Cyber Security … Da will man auch unter Umständen nicht erst über Nacht ein Query beantwortet haben, sondern schnell wissen, was da los ist. Da ist Elastic, so kann man schon sagen, für viele Dinge ein Standard geworden.
 
Wenn ich gerade an eure anderen riesigen Kunden denke, das sind Massen an Daten, die da fließen, und das sollte dann kein Problem für euch sein. Um tiefer einzusteigen; wie funktioniert schlussendlich die Auswertung dieser Daten? Denn am Ende will man irgendwo eine Applikation haben, wo man diese Daten beispielsweise im Produktmanagement bereitstellt.
Sebastian
Es gibt mehrere Möglichkeiten die Daten auszuwerten, die auch bei Tracto in mehreren Varianten genutzt wird. Zum einen gibt es von Elastic »Kibana« als Visualisierungstool. Das ist aus meiner Sicht ein Profi-Tool, um tief in die Daten hineinzuschauen.
 
Dann gibt es auch die Möglichkeit, die Daten an »Power-BI« zu übergeben, als Standard-Reporting-Tool von Microsoft. Das wird im Unternehmen unter anderem auch als Controlling benutzt. Da werden Reports eher generalisiert, anstatt Visualisierungen. Das sind genau die Fragen wie: Gib mir den durchschnittlichen Verbrauch, die durchschnittlichen Drehzahlen der letzten drei Tage, oder wo haben die Maschinen gestanden?
 
Die nächste Möglichkeit ist, die Daten direkt per Schnittstelle bei Elastic abzugreifen, um zum Beispiel eigens entwickelte Applikationen mit Daten zu befüllen. Das ist in dem Fall die Applikation für die Kunden, die dort ihre Maschinendaten abgreifen und ihre Bohrdaten einsehen können.
 
Es wird noch mehr Möglichkeiten geben, aber Tracto nutzt genau diese drei.
 
Kibana ist eine offene Plattform- oder Softwarelösung, die ihr zusätzlich noch genutzt habt, um dieses konkrete Problem dann zu lösen, oder?
David
Kibana ist die Softwarekomponente in unserer Plattform, die für die Visualisierung zuständig ist. Das heißt, Daten werden in Elastic über den Indizierungs-Layer hineingebracht. Dann liegen sie in Elasticsearch, wo sie in der Datenbank verfügbar sind. Datenbank als Synonym für Elasticsearch. Kibana ist die Schicht darüber, über die man Dashboards bauen kann, in allen Farben und Formen. Dort kann man sehr individuelle Sachen abbilden. Ganze Fertigungsstraßen nachbauen, aber auch ganz viele Out-of-the-Box-Dashboards und Visualisierungen. Wo man sich tief in Daten rein-drillen kann, aber auch schnelle Analysen aufbauen kann, on-the-fly praktisch.
 
Das ist ein sehr mächtiges Tool. Das kriegt man bedient, wenn man sich etwas mit den grundlegenden Konzepten auseinandergesetzt hat. Es ist von den Möglichkeiten her auf jeden Fall sehr vielseitig.
 
Sebastian, du kannst das Ganze ein bisschen bewerten. Habt ihr damit schon vorher gearbeitet? Ist das etwas, was man einfach nutzen kann, oder braucht man schon ein paar Fähigkeiten?
Sebastian
Man muss schon ein paar Fähigkeiten mitbringen. Eine Datenaffinität ist sicherlich nicht verkehrt. Auch die Struktur der Daten zu verstehen; auch den Aufbau von Elastic im Grundlegenden zu verstehen. Wenn man sich ein bisschen damit beschäftigt, bekommt man starke Visualisierungen hin.
 
Mit Kibana kann ich alle Fragen an die Daten beantworten, in jeglicher Hinsicht. Ob es GPS-Positionen von Maschinen sind, ob es Mittelwerte, Maximal- oder Minimalwerte sind, ob es sehr schnelle Aggregationen von Daten sind. Das heißt, Daten, die eigentlich im Sekundentakt einlaufen, zusammengefasst auf mehrere Tage, Monate, oder auch auf Millionen von Devices. Das ist sehr schnell und effizient, aber man muss sich damit beschäftigen.
 
Dafür hat man dann consileo als Ansprechpartner, ihr helft dort. Eine Frage noch; ihr benutzt Microsoft Azure Services. Was macht ihr damit genau?
Sebastian
Wir benutzen Microsoft Azure Services für verschiedene Themen. Einmal, wir nutzen Elastic als Managing Service. Bei vielen Kunden, unter anderem auch bei Tracto, da läuft auf Microsoft Azure, so haben wir es uns ausgesucht. Unsere Entwicklungsumgebung, das heißt, mit den Dingen, mit denen wir entwickeln, läuft auf Microsoft Azure und auch die digitalen Apps laufen darüber.
 
Wir nutzen dort Azure Kubernetes Service. Das ist im Prinzip ein virtueller Computer, der sehr elegant skalieren kann und, je nach Anforderung der User, automatisch mitwächst.
 
Wenn wir im nächsten Schritt darüber sprechen, wirklich auch die Daten zu analysieren – ihr hattet eingangs von Predictive Maintenance als einer Art Königsdisziplin gesprochen, in Richtung Data Science. Wie funktioniert es, die ganzen Bohrdaten, Flotten-Management-Daten, intelligent zu analysieren?
David
Die Elasticsearch Plattform ist – auch wieder über Kibana – über eine GUI accessible, aber man kann das genauso über APIs angehen. Wenn man es mehr technisch möchte, bringt ein Data Science beziehungsweise ein Machine Learning Framework etwas. Unter dem Marketingslogan »Data Science for Everyone«.
 
Es ist tatsächlich so. Wenn man aus der Domäne kommt und weiß, was man will, wenn man ein bisschen Verständnis mitbringt, was man mit den Daten erreichen will, dann hat man dort ein Framework, mit dem man sich über einen Wizard die verschiedensten Dinge zusammenkonfigurieren kann. Das geht über Outlier Detection, Anomaly Detection Jobs. Also Muster in Daten finden, die außergewöhnlich sind; nicht etwa unnötige Alarmierungen konfigurieren mit Threshholds, was unendlich arbeitsaufwendig ist, wenn man das für viele Datenpunkte macht. Viel eleganter ist es, eine KI dort für sich arbeiten zu lassen. Das Ganze ist so aufgebaut, dass man dafür nicht im Unternehmen – wenn man dafür arbeiten will – einen riesigen Staff an Data Scientists aufbauen muss. Was heutzutage wirklich ein Problem ist.
 
Jedes Unternehmen, egal wie viel Geld es in die Hand nimmt, hat dort Schwierigkeiten. Das ist das, was wir als Plattform mitbringen. Das, was Sebastian mit Tracto geschaffen hat, ist eine tolle Grundlage für weitere Use Cases in die Richtung, nämlich Predictive Maintenance. Von reaktiver auf pro-aktive Wartung umzustellen. Im ersten Schritt Anomalieerkennung über die Daten laufen zu lassen, um früh darauf hinzuweisen: Achtung, hier passiert gerade etwas, was vorher nicht da war. Da sind viele Möglichkeiten und einige sehr interessante nächste Schritte, die man angehen kann.
 
Wenn ich kein IoT-Experte bin, muss ich wahrscheinlich Buzzwords wie »Wizard« und »Threshholds« und so weiter nicht kennen. Aber eine Frage: du hattest von GUI gesprochen. Ich kenne API-Schnittstellen; GUI ist aber neu für mich. Ist das ein suchtechnisch-spezifisches Thema bei euch?
David
Das ist einfach nur eine Graphical User Interface, also eine grafische Benutzeroberfläche. Quasi die UI, so sagt man auch, über der Plattform. Dass du visuell mit der Plattform interagieren kannst versus über APIs, was dann eher programmiertechnisch abläuft.
 
Verstanden, alles klar. Sebastian, dieses Datenanalyse Thema, ist das auch schon etwas für euren Kunden oder ist das noch weit weg?
Sebastian
Das ist schon sehr präsent. Ich glaube, das ist für jeden Kunden sehr präsent, der das erste Mal Daten in die Hand bekommt. Das ist der Zweck der Daten, diese zu analysieren. Da gibt es verschiedene Wege. Es gibt sehr leichtgewichtige Wege, Anomaly Detection zum Beispiel. Der klassische Fall, die Motortemperatur ist immer 100 Grad Celsius und auf einmal beträgt sie 120. Dann möchte ich darüber informiert werden. Es gibt auch noch viel weiter reichende Analysemethoden, die man hier einsetzen kann, die sicherlich auch über das hinausgehen, was Elastic anbietet. Da braucht man fast schon einen Data Scientist.
 
Man ist sehr schnell an diesen Themen. Sobald die ersten Daten einlaufen, stellt man sich die Frage: Was mache ich damit?
 
Ihr habt gerade das Thema Kompetenzen im mittelständischen Maschinenbau erwähnt. Es ist wirklich so, dass es eine große Herausforderung ist. Sebastian, ihr seid den Weg gegangen, habt euch einen Partner mit ins Boot geholt. Das machen viele. Zu sagen: Hey, wir partnern und bauen uns fast schon Ökosysteme auf an Partnern, die ich brauche, um sowas zusammen zu machen. Ist das ein Weg, den du als richtig empfindest?
Sebastian
Die Kompetenz ist in vielen Fällen nicht da. Da ist der richtige Weg, auf einen kompetenten Partner zu setzen, der auf der einen Seite IT-Kenntnisse hat in diesen Themen. Der vielleicht aber auch ein Stück weit versteht, wie Maschinenbauer sind und denken. Es hilft nichts – das Thema wird Teil der Wertschöpfung werden, bei allen Maschinenbauern. Man muss eigene Kompetenz auch ein Stück weit aufbauen. Das heißt, man braucht auf der Maschinenbauer Seite eine Art Sparringspartner, der mit den externen Dienstleistern in Diskussion kommen kann, bessere Lösungen entwickeln kann; der das Geschäft auch ganz gut versteht. So entstehen gute Lösungen. Das ist ein Mix, natürlich auch eine Transformation des Maschinenbauers, keine Frage.
 
David, wie ist das bei euch?
David
Ich glaube, dem mittelständische Maschinenbau geht es genau wie allen anderen Unternehmen. Talent in der IT, in fast allen Disziplinen aber, ist schwer zu bekommen. Da ist es clever, für verschiedene Themen einen Partner wie consileo einzusetzen, um Dinge beschleunigen zu können, um sich dort nicht so lange die Beine in den Bauch zu stehen, bis man vielleicht doch mal jemanden geangelt hat. Das kann lange dauern.
 
Was wir da als Elastic beisteuern können oder wo wir uns sehen in dieser Problematik, ist eigentlich das Thema, eine Plattform für verschiedene Lösungen. Ich hatte bereits einige Themen angerissen, in denen wir unterwegs sind. Die klassische Suche ist das eine, im Web-Shop sind Applikationen. Dann das Monitoring von IT-Infrastruktur, das Monitoring von IoT-Infrastruktur – ob das jetzt Bohrmaschinen sind oder die Fertigungsstraßen von Kfz-Herstellern.
 
Cyber Security ist ein Bereich, den wir mit unserer Plattform mit Lösungen adressieren. Das ist – das erleben wir auch bei Kunden – zunehmend interessant, Dinge zu zentralisieren. Anstatt viele Insellösungen zu betreiben, für die man Leute schulen muss, die unter Umständen das Unternehmen verlassen, die alle eigene Lizenzmodelle haben und maintaint werden müssen. Dass man sagt: Okay, vielleicht nehmen wir statt siebzehn Lösungen nur noch drei oder im Idealfall nur eine, und die heißt Elastic. Das ist etwas, wo wir einen Wert für Unternehmen bringen können im Maschinenbau.

Ergebnisse, Geschäftsmodelle und Best Practices – So wird der Erfolg gemessen

Am Ende geht es immer um den Business Case. Wie spare ich die Kosten ein? Baue ich daraus ein neues Geschäftsmodell oder kann ich meinen Umsatz durch neue Services steigern? Sebastian, wie war das für Tracto? Zusammenfassend, was ist das Ergebnis und der Business Case für euren Kunden?

Sebastian

Ich glaube, dass man den Business Case an zwei Stellen sehen kann. Dadurch, dass man innovative Techniken einsetzt und auch dem Kunden Nutzen bietet, zum Beispiel bei der Bohrdatenerfassung, verkauft man hoffentlich mehr Maschinen, und mit mehr Maschinen hat man mehr Geschäft. Das ist sicherlich ein Treiber. Man muss sich dem digitalen Wandel stellen.

Das andere sind natürlich die Reduzierungsmöglichkeiten im Service, die sich ergeben. Dadurch, dass ich unter Umständen weniger Feldeinsätze fahren muss, dadurch dass ich die Daten habe, muss ich auch keinen Servicetechniker rausschicken. Da ergeben sich Einsparungen zwischen 15 und 30 Prozent.

 

David, du hast gerade gesagt, ob das eine Fertigungsstraße ist oder dieser Case – hast du Best Practices zu solchen Business Cases von eurer Seite aus?
David
Nicht allgemein, aber natürlich spezifisch. Wir arbeiten mit Kunden sehr eng am Wert entlang, denn das funktioniert im Enterprise Software Sales nicht, dass man als Beispiel Packungen mit CD-ROMs über den Tresen schiebt. Sondern man muss etwas verkaufen, was für den Kunden einen Wert darstellt. Da gibt es anekdotisch: Wir arbeiten mit der Mayr-Melnhof-Gruppe aus Österreich zusammen. Das sind Kartonagehersteller. Das ist ja ein sehr energieintensiver Prozess und geht ein bisschen in die gleiche Richtung wie auch der Use Case von Sebastian und Tracto. Diese haben ihre Fertigungsstraßen digitalisiert und in Elasticsearch visualisiert. Da wurde über Korrelationsanalysen so lange an dem Produktionsprozess optimiert, bis sie 20 Prozent der hochpreisigen Rohstoffe einsparen konnten, aber hinten raus noch die gleiche Produktqualität haben.
 
Das war einer, aber es gibt viele, und das ist in unserem Fall eher eine individuelle Betrachtung des Business Case, von Projekt zu Projekt.
 
Schön, dass ihr da trotzdem einige Best Practices habt. Ihr habt auch sehr spannende Referenzen, anhand dessen man möglicherweise auch was ableiten kann. Sebastian, am Ende geht es ja auch um Learnings. Um Erkenntnisse, die man vielleicht teilen kann, um Fehler nicht zweimal zu machen. Was waren hier die größten Erkenntnisse auf deiner Reise?
Sebastian
Im Wesentlichen waren es zwei. Dass man auch mal out-of-the-box denken muss und Dinge einsetzen kann, wie Elastic, die für diesen Fall gar nicht vorgesehen sind, aber die optimale Lösung darstellen. Ich denke, das Zweite ist, dass am Ende auch mal interne Prozesse durch IoT optimiert werden können. In diesem Fall war es einfach die Serviceorganisation, die deutlich davon profitiert. Ich denke, das haben viele nicht im Blick. Sie denken stark kundenorientiert, was richtig ist. Aber man kann auch INTERNE Werte heben.
 
Es bedeutet, glaube ich auch, Mut und Vertrauen. Man muss den richtigen Partner finden und den Mut haben, mit dieser Technologie den Weg zu gehen. Das funktioniert und braucht auch Mut, oder?
Sebastian
Sehr richtig. Ohne Mut funktioniert es nicht. Das ist eine neue Technologie, ein ganz neues Feld auch für die Maschinenbauer. Da bedarf es sehr viel Mut und sehr viel Engagement. Am Ende zahlt es sich aber aus.
 

Übertragbarkeit, Skalierung und Nächste Schritte – So könnt ihr diesen Use Case nutzen [33:43]

Die letzte Frage in Richtung Use Cases. Sebastian, ihr habt verschiedenste Use Cases, die man sich denken kann. Ob das die angesprochene Fertigungsstraße ist, die man mit Elastic lösen kann, das entsprechende Data Handling oder mit Tracto aus diesem Kerngeschäft kommend. Das ist wahrscheinlich auch für andere Maschinen- und Anlagenbauer übertragbar, was ihr gemacht habt, oder?

Sebastian

Ja, auf jeden Fall. Das ist sehr gut verallgemeinerbar, denn letzten Endes haben viele Baumaschinen die Anforderung – die stehen auch im Feld, haben auch schlechte Netzabdeckung unter Umständen. Da ist der gleiche Einsatzfall wie bei Tracto. Es gibt aber auch andere Einsatzfälle, wie ein Stahlwerk, was große Datenmengen generiert und analysiert haben will, da funktioniert die Lösung genauso gut.

 
Dann war das ein schönes Schlusswort zum Ende, wie ich finde. Wer dort Interesse hat, kann direkt auf euch zugehen und Potentiale besprechen. Die entsprechenden Informationen sind in den Shownotes verlinkt.

Für Rückfragen stehe ich Ihnen gern zur Verfügung.

Ing. Madeleine Mickeleit

Host & Geschäftsführerin
IoT Use Case Podcast