Do you want to see our content in English?

x
x

OEE-Bestimmung im Bosch Rexroth Werk – das ITK Transparency-Toolkit im Einsatz

““

Klicken Sie auf den unteren Button, um den Inhalt von Spotify Player zu laden.

Inhalt laden

IoT Use Case Podcast auf Spotify anhören
IoT Use Case Podcast auf Spotify anhören
IoT Use Case Podcast auf anderen Plattformen anhören

IoT Use Case - ITK Engineering

Unternehmen stehen vor der Herausforderung, dass ihre Maschinendaten oft nicht digital oder nicht im richtigen Format vorliegen. Häufig gibt es eine schlechte Datenbasis und/oder eine große IT/OT Heterogenität bzw. Datensilos. Symptome dieser Herausforderungen sind langsamer Fortschritt bei Digitalisierungsprojekten und Nachbesserungen, die nur mit großem Aufwand möglich sind.

Diese Symptome gar nicht erst entstehen zu lassen, darum geht es in der 111. Folge des IoT Use Case Podcasts mit Philipp Merklinger, Technical Consultant Digital Transformation bei ITK Engineering und natürlich Ing. Madeleine Mickeleit.

Folge 111 auf einen Blick (und Klick):

  • [06:28] Herausforderungen, Potenziale und Status quo – So sieht der Use Case in der Praxis aus
  • [12:26] Lösungen, Angebote und Services – Ein Blick auf die eingesetzten Technologien
  • [26:24] Übertragbarkeit, Skalierung und nächste Schritte – So könnt ihr diesen Use Case nutzen

Zusammenfassung der Podcastfolge

Philipp Merklinger und Madeleine Mickeleit sprechen darüber, wie Unternehmen es schaffen können, in der Flut von Daten die wirklich relevanten Informationen herauszufiltern. Diese Episode dreht sich dabei unter anderem um das „ITK Transparency-Toolkit im Einsatz“ und bietet spannende Einblicke in die Herausforderungen und Lösungen der Industrie.

Philipp Merklinger beleuchtet die Bedeutung der Overall Equipment Effectiveness (OEE) als zentralen Indikator für die Produktionseffizienz und geht auf die täglichen Herausforderungen und potenziellen Lösungen ein, denen seine Kunden in ihrem Betrieb gegenüberstehen.

Zudem werfen die beiden einen Blick auf die verwendeten Technologien, die Datenerfassung und -analyse und diskutieren über die Herausforderungen, die auftreten, wenn ihre Maschinendaten nicht digital vorliegen oder nicht im richtigen Format sind.

Zum Abschluss dieser Episode gibt es einen Ausblick auf die Zukunft, einschließlich Themen wie 5G-Konnektivität, die Entwicklung von IoT-Plattformen und die Anforderungen von KI an Trainingsdatensätze.

Podcast Interview

Hallo Philipp, schön, dass du heute mit dabei bist. Ich freue mich sehr, dass du heute beim IoT Use Case Podcast zu Gast bist. Wie geht’s dir gerade und wo erreiche ich dich?

Philipp

Danke, Madeleine, mir geht es gut. Danke auch für die Einladung zu deinem Podcast. Du erreichst mich gerade an unserem Standort in Rülzheim, das liegt circa eine halbe Stunde westlich von Karlsruhe, aber auf der pfälzischen Rheinseite. Ich freue mich heute, hier zu sein und bei dir zu Gast.

Sehr schön. Kommst du auch aus der Ecke oder bist du gebürtig woanders her?

Philipp

Ich bin in Karlsruhe geboren und habe dort auch studiert, Wirtschaftsingenieurwesen am KIT. Nun hat es mich jedoch auf die andere Rheinseite verschlagen.

Shoutout nach Karlsruhe an der Stelle. Ihr seid ja eine hundertprozentige Bosch-Tochter, glaube ich, mit über 1300 Mitarbeitern, wenn man das so auf LinkedIn und so weiterverfolgt. Ihr bietet branchenübergreifende Lösungen, auch sehr spezifische, im Bereich System- und Softwareentwicklung. Philipp, du arbeitest als sogenannter Technical Consultant der digitalen Transformation. In welcher Abteilung arbeitest du genau, und mit welchen Kunden habt ihr Kontakt?

Philipp

Generell ist es so, dass ITK als Matrix organisiert ist. Das heißt, auf der einen Seite haben wir Geschäftsfelder, diese umfassen dann zum Beispiel das Thema Rail, Healthcare, Automotive oder eben auch Industrie. Auf der anderen Seite gibt es eine Reihe von Fachteams. Diese haben sich auf verschiedene Bereiche spezialisiert. Das reicht von Systems Engineering über klassisches Software-Engineering, bis hin zu aktuellen Trendthemen wie KI oder Cloud-Technologien. Das bietet uns als Ingenieursdienstleister die Möglichkeit, die Projekte, die wir mit unseren Kunden haben, mit verschiedenen Kompetenzen flexibel zu besetzen. Meine Abteilung heißt Smart Factory Technologies und beschäftigt sich mit allen Bereichen rund um das Thema I4.0. Dazu zählen zum Beispiel die Entwicklung von Schnittstellen zur Überwindung von Systembrüchen, das Thema Fabriksimulation oder eben auch das Thema Datenerfassung oder Retrofit in der Produktion.

Cool. Jetzt hast du schon gesagt, ihr arbeitet mit ganz unterschiedlichen Geschäftsfeldern. Was sind das für Kunden?

Philipp

Es gibt eine große Bandbreite an Kunden und Use Cases bei uns. Das reicht vom OEM-Hersteller bis hin zu einem kleinen Maschinenhersteller aus dem Mittelstand. Das ist schwer zu spezifizieren an der Stelle.

Im Podcast spreche ich immer über verschiedenste Use Cases aus der Praxis, um vor allem den Business Case dahinter zu verstehen, warum Firmen das machen und auch um über die Monetarisierung zu sprechen. Kannst du uns erzählen, welches Projekt wir uns heute anschauen und was für Use Cases damit einhergehen?

Philipp

Heute wollen wir uns mit dem Use Case Datenerfassung bzw. Retrofit in der Produktion beschäftigen. Konkret geht es darum, dass Kunden in der Produktion einen Maschinenpark zur Verfügung haben, der nur bedingt oder vielleicht sogar gar keine Daten liefert. Das macht natürlich das Ergreifen von Maßnahmen schwierig. Da gilt es zu identifizieren, welche Daten dem Kunden wirklich helfen, richtige Entscheidungen zu treffen, um seine Produktionsplanung zu optimieren. Oder wenn man das Ganze auf einen langfristigen Horizont betrachtet – beispielsweise welche Maschinen ich möglicherweise neu anschaffen oder anders warten muss –, soll es heute darum gehen, bei diesen Entscheidungen zu unterstützen und festzustellen, welche Daten ich dafür benötige. 

Ja, sehr cool. Ihr habt ja verschiedene Success Stories bei euch online, dürfen wir über den Case „Bosch Rexroth Werk“ sprechen oder ist das etwas, was wir heute nicht im Detail besprechen können?

Philipp

Können wir gerne auch mit reinbringen, das ist kein Problem, das kann ich auch noch so ein bisschen erwähnen.

Das Schöne bei euch ist ja wirklich, dass ihr so viele Kunden-Cases habt. In dem Boschwerk, was sind das so für Cases, die da umgesetzt werden? Ist das auch so klassisch Datenerfassung/Retrofit oder kommen da noch andere Themen mit ins Spiel?

Philipp

Im Core geht es um das Thema Retrofit. Man hat eine Maschine, die nicht angeschlossen ist. Man hat auch neuere Maschinen, die schon Kennzahlen liefern, um ihre Produktivität zu beurteilen. Zum Beispiel die OEE, Overall Equipment Effectiveness. Da geht es konkret darum, die Bestandsmaschinen nachzurüsten, sodass die Kennzahlen vergleichbar mit dem Maschinenpark sind. Das ist bei Rexroth eine große Herausforderung, der natürlich viele Werke und viele Produktionen selbst hat und auch Kunden berät. Da geht es darum, das Ganze auf dem Level zu entwickeln.

[6:28] Herausforderungen, Potenziale und Status quo – So sieht der Use Case in der Praxis aus

Es geht unter anderem um Cases rund um die OEE, die Overall Equipment Effectiveness oder auch um Datenerfassung und Retrofit. Was ist der Business Case eurer Kunden? Warum machen die das heute?

Philipp

Die OEE dient dazu die Produktivität der Produktionsmaschinen zu beurteilen. Gerade im Bereich der Verfügbarkeit geht es darum Stillstandszeiten, die auch geplant sein können, zu optimieren. Davon ausgehend kann man in Richtung Predictive Maintenance denken. Wie erstelle ich meinen Schichtplan? Gibt es Optimierungen, die ich in diese Richtung treiben kann? Letztendlich ist auch das Thema Qualität wichtig. Welche Ausschussraten werden produziert? Werden Toleranzen verletzt? Daraus kann man Maßnahmen wie Mitarbeiterschulungen oder Änderungen am Produktionsprozess ableiten. Das kann OEE anzeigen und ist Startpunkt für weitere Analysen. Deswegen ist es wichtig, dass Kunden sich um die OEE Gedanken machen.

Ja, viele Unternehmen haben bereits den Weg eingeschlagen, wenn auch noch nicht alle. Möglicherweise haben einige von ihnen bereits Kennzahlen im Blick. Welche Herausforderungen gibt es, um diesen digitalen Weg zu beschreiten, insbesondere im Kontext von IoT-Lösungen? Welche alltäglichen Herausforderungen sehen eure Kunden? Welche Schwierigkeiten tauchen auf, wenn man so etwas umsetzen möchte?

Philipp

Eine der größten Herausforderungen, gerade bei der Skalierung von datengetriebenen Use Cases, ist eine schlechte Datenbasis. In der Regel heißt das nicht, dass keine Daten vorhanden sind, die sind meistens sogar in großen Mengen vorhanden. Aber oftmals herrscht eine große IT/OT-Heterogenität und Daten sind nur in sogenannten Datensilos vergraben. Das heißt, die Unternehmen sammeln schon viele Daten, aber die Daten werden nicht genutzt. Es gibt keine Verbindung zu anderen Systemen, die können nicht miteinander sprechen. Das ist eine große Herausforderung, solche Qualitäts-Probleme quasi zu beseitigen. Genau da versuchen wir, den Kunden zu unterstützen.

Okay, jetzt hast du mir schon die perfekte Überleitung gegeben. Ich meine, bei der OEE ist es fast schon definiert, aber irgendwie muss man trotzdem erstmal an diese Daten kommen, bzw. auch verschiedenste Datentypen aufnehmen. Kannst du uns mal so ein bisschen mitnehmen, was für Daten das sind? Welche Daten muss ich dafür aufnehmen?

Philipp

Generell ist es möglich, mit dem Transparency-Toolkit unterschiedliche Anbindungen zu realisieren. Das hängt vom Use Case ab. Da kann man dann auch Standardprotokolle wie OPC UA oder MQTT nutzen. Andererseits können wir auch Daten direkt aus Steuergeräten herausziehen oder auch aus übergeordneten IT-Systemen wie MES oder ERP. Konkret bei der OEE ist es natürlich wichtig, die Signale direkt aus der Maschine zu bekommen. Deshalb haben wir bei Bosch Rexroth insgesamt 40 Signale aus einer SPS erfasst und ausgewertet. Wichtige Parameter sind dann sowas wie die aktuelle Materialnummer, das aktive Produktionsprogramm und der aktuelle Maschinenzustand. Gibt es Fehlermeldungen? Gibt es Qualitätsindikatoren wie Maßungenauigkeiten?

Jetzt hast du beispielsweise „Materialnummer“ genannt. Warum ist es wichtig die Materialnummer aufzunehmen?

Philipp

Es kann vorkommen, dass deine Maschine beispielsweise ein bestimmtes Produkt einwandfrei herstellt, während bei einem anderen Batch immer wieder Fehler auftreten. Daher ist es entscheidend, diese Fälle später voneinander zu isolieren. Möglicherweise liegt das Problem an der Produktgeometrie in der Fräsmaschine, auf das man in diesem Bereich reagieren kann. Das wäre mein Ansatz dazu.

Jetzt hast du es schon angesprochen, es geht um euer Transparency-Toolkit. Wir kommen gleich so ein bisschen drauf, was das ist und was das genau kann. Was sind so Anforderungen, die ihr immer wieder hört, die zum Einsatz der Lösung führen? Was ist da wichtig?

Philipp

Eine wichtige Anforderung vom Kunden ist neben der fachlichen Beratung, d.h. welche Daten erfasst oder gespeichert werden sollen, insbesondere eine gute Zusammenarbeit zwischen den Projektteams. Eine weitere Anforderung ist, dass die Daten, die wir letztendlich auch erfassen, in einen gewissen Kontext eingeordnet werden müssen. Unsere Kunden sind Experten in den Prozessen ihrer Produktion, aber manchmal ist man an der Stelle auch ein bisschen betriebsblind. An der Stelle unterstützen wir den Kunden Anomalien zu identifizieren und auch gegebenenfalls gemeinsam zu einer Ursache zuzuordnen, sodass Kunden auch einen deutlichen Mehrwert haben.

Ja, das ist beispielsweise das, was du gerade erwähnt hast, nämlich den Kontext mit der Materialnummer zu schaffen, um Vergleiche zu ermöglichen und tiefer in die Daten einzusteigen.

[12:26] Lösungen, Angebote und Services – Ein Blick auf die eingesetzten Technologien

Was kann das Transparency-Toolkit genau kann und wie wurde es bei Bosch Rexroth im Werk eingesetzt? Wie funktioniert das?

Philipp

Generell ist das Transparency-Toolkit ein Prototyping-Toolkit. Das heißt, wir können das bestehende System nehmen und es an den Kunden anpassen. Wenn beispielsweise ein Kunde Energiedaten erfassen möchte, fügen wir einen Energy Meter hinzu und stellen sicher, dass die Komponenten miteinander kommunizieren können. Anschließend können die Daten über eine IoT-Plattform gespeichert und analysiert werden. Dies verdeutlicht, dass wir bestrebt sind, sinnvolle Daten auszuwählen, die für den jeweiligen Use Case relevant sind, und darauf basierend die für den Kunden wichtigen Auswertungen durchzuführen. Im Falle von Bosch Rexroth geht es darum, die Produktivität der Maschinen automatisch zu berechnen, um die Steuerung des Maschinenparks zu ermöglichen. Dies erfolgt insbesondere vor dem Hintergrund, dass Rexroth bereits an vielen Stellen OEE-Berechnungen durchführt. Es ist wichtig, dass diese Berechnungen miteinander vergleichbar sind. Das Transparency-Toolkit stellt sicher, dass die OEE für diese spezielle Maschine auf die gleiche Weise berechnet werden kann, und ermöglicht somit einen Vergleich und eine Optimierung der Produktion.

Ich habe gerade ein Bild von eurem Transparency-Toolkit geöffnet, ich verlinke das mal in den Shownotes. Das kann man mit einer Werkzeugkiste beschreiben, die ihr dorthin stellt. Das sind erst mal verschiedene mit Kabeln verbundene Gerätschaften. Wie ist dieses Produkt zusammengesetzt, was sieht man da?

Philipp

Generell besteht das Transparency-Toolkit aus verschiedenen Komponenten. Wir versuchen maximal flexibel zu sein. Wir haben da Elemente drin, die es uns ermöglichen SPS auszulesen. Zudem verfügen wir über eine Wireless Bridge, die es uns ermöglicht, beispielsweise einen Induktivsensor in der Produktion hinzuzufügen. Dann kann der da mit unserem Transparency-Toolkit kommunizieren. Die erfassten Daten werden gemeinsam mit den aus der SPS gewonnenen Daten gespeichert, und wir können somit Zusammenhänge zwischen ihnen herstellen.

Es ist sozusagen nicht nur ein Hardware-Werkzeugkiste, die ihr dorthin stellt, die genau diese verschiedenen Anbindungen auch machen kann, sondern eben auch ein Stück Software dabei. Schaut mal in die Shownotes oder guckt bei LinkedIn @IoT Use Case. Ich verlinke euch das mal unter dem Podcast-Post, dann könnt ihr euch mal anschauen, wie das genau in der Praxis aussieht. Du hast gesagt, ihr nehmt SPS-Daten auf. Das sind verschiedenste Schnittstellen und Protokolle. Wie funktioniert die Datenaufnahme genau?

Philipp

Jetzt in dem speziellen Use Case ist es natürlich wichtig, sich nochmal klarzumachen, dass so eine SPS eine große Menge an Daten zur Verfügung stellt. Eine Siemens S7 stellt eine ganze Bandbreite von Datenfeldern zur Verfügung. Jetzt gilt es herauszufinden, welche die wichtigen Datenfelder sind. Verstecken sich hinter diesem Datenfeld auch wirklich die Daten, die da draufstehen? Das alles muss plausibilisiert werden. Der Austausch mit dem Kunden, der über das gesamte Prozesswissen verfügt, in diesem Fall bei Rexroth, ist von entscheidender Bedeutung. Dieser Kunde kann beispielsweise Informationen darüber bereitstellen, wie die OEE an anderen Maschinen berechnet wird. Dann hat man eine gewisse Vergleichbarkeit und kann die Kennzahl berechnen. Der Kunde hat dann eine Single Source of Truth.

Gibt es da bestimmte Hindernisse bei Kunden, die das ohne dieses Transparency-Kit heute versuchen umzusetzen? Es ist ja wahnsinnig aufwendig überhaupt diese ganzen Datentypen erstmal auf ein Level zu bringen, um die Anbindung zu ermöglichen. Das machen Kunden sonst sehr aufwendig, oder wie funktioniert das? Was sind Hindernisse, die Kunden ohne euch haben?

Philipp

Genau. Wie du schon sagst, ist ein Retrofit von einer Maschine nicht einfach mal von heute auf morgen gemacht. Dahinter stehen große Projekte bei den Kunden, die von der Beantragung von Budgets über die Registrierung der Geräte in den Maschinennetzwerken bis zur Schulung der Mitarbeiter reichen. Ein großer Vorteil des Transparency-Toolkits und seiner Flexibilität besteht darin, dass wir in die Produktion eintreten, Daten über einen Zeitraum von zwei Wochen sammeln und prototypisch feststellen können, ob es an dieser Stelle funktioniert. Dann kann man von da aus weitergehen und seine Produktion weiter optimieren. Es ist vor allem ein Zeitgewinn an der Stelle.

Es geht auch um die wichtigen Datenfelder. Welche sind das überhaupt? Welche Daten sind überhaupt relevant, um diesen Kontext und die Vergleichbarkeit herzustellen? Hast du da für unsere Zuhörerinnen und Zuhörer eine Art Leitfaden? Wie gehe ich da vor? Was ist eure Vorgehensweise?

Philipp

Klar, gerne. Also nur nochmal, um es vor Augen zu halten, jedes Projekt ist absolut kundenspezifisch bei uns. Wir entwickeln keine Standardsoftware. Generell ist es immer wichtig am Anfang ein klares Ziel zu formulieren. Wenn wir nochmal auf die Materialnummer schauen, für die verschiedenen Materialtypen möchte ich analysieren, wie sie auf meiner Maschine performen. Dann muss ich mir Gedanken darüber machen, welche Sensorik bzw. welche Datenquellen gebaucht werden, um diese Frage zu beantworten. In dem Fall lagen die Daten in der SPS vor und wir konnten diese über ein IoT Gateway abgreifen an der Stelle. Im nächsten Schritt gilt es, diese Daten, die man dann zur Verfügung hat, auf Qualität zu prüfen. Das heißt, sehe ich die richtigen Daten an der Stelle? Da muss ich mich auch wieder mit dem Kunden austauschen, mit den Prozessexperten. Gemeinsam werden dann Erkenntnisse abgeleitet. Das ist auch immer ganz wichtig, weil eine Auswertung alleine nie Mehrwert generieren wird. Man muss auch wirklich die gemeinsamen Erkenntnisse festhalten und sich auch Gedanken machen, ob das Ganze auch vielleicht an einer anderen Maschine realisierbar ist, also das Thema Skalierbarkeit mit reinbringen. Was wir ebenfalls als wichtig erachten, insbesondere bei sich ändernden Parametern in der Produktion, ist die regelmäßige Überprüfung und gegebenenfalls Anpassung der durchgeführten Auswertungen im laufenden Betrieb. Es kann vorkommen, dass neue Umgebungsparameter hinzukommen, die berücksichtigt werden müssen. In solchen Fällen müssen diese in die Überlegungen einbezogen werden.

Du hattest ja von Kontext und auch Vergleichbarkeit gesprochen im Kontext der Skalierung dieser Themen. Meinst du das auf eine Maschine bezogen? Oder, wenn es für ein Werk umgesetzt wurde, kann es auch für andere Werke bereitgestellt werden? Was bedeutet für euch da Skalierbarkeit von diesen Cases?

Philipp

Skalierbarkeit gibt es in verschiedenen Stufen. Ich sag mal, man fängt nicht an, sein ganzes Werk auf einmal umzustellen, sondern man beginnt mit einer Maschine, wo man sich relativ sicher ist, dass man das schafft, dass man auch nachweislich überprüfen kann, ob diese Berechnung stimmt. Dann gehe ich zur nächsten Maschine und sage, okay, vielleicht schaffe ich es dann, die Vorgehensweise an meiner ganzen Produktionslinie zu implementieren. Es ist quasi wie eine Kaskade. Man überträgt das, was man im Kleinen gelernt hat, dann auf größere Kontexte.

Wie funktioniert denn diese Installation vor Ort an der Maschine? Ihr bringt euer Toolkit mit. Ihr habt vorher definiert, was sind das für Datentypen, wo kommen die her, was sind das für Geräte und Sensoren, die da angebunden werden. Wie macht ihr diese Installation vor Ort an der Maschine?

Generell ist das eine Installation gemeinsam mit dem Kunden vor Ort. Der Prozessverantwortliche kann uns zeigen, wo wir das Transparency-Toolkit positionieren können. Vorab klärt man solche Themen wie das Transparency-Toolkit fürs Maschinenetz freigeben, das heißt, ich muss da MAC-Adresse und eine IP-Adresse vergeben. Dann ist es im Prinzip ein gemeinsamer Anschluss vor Ort, eine Art Plug and Play. Bei Bosch Rexroth war eine Klasse Zusammenarbeit vor Ort mit einer ‚hands-on‘-Mentalität. Oftmals kann es bei Kunden mit dem Transparency-Toolkit zu Herausforderungen kommen, die diese gewisse Mentalität erfordern. Das könnten beispielsweise Probleme mit der Netzwerktopologie sein. Da war ich vor ein paar Wochen in einem Werk, wo die Netzwerkbuchsen nicht richtig gepatcht waren. Obwohl alles richtig angeschlossen war, war es nicht sichtbar, wo die Ursache für das Nicht-Sehen der Daten lag. Dann versucht man den Fehler einzukreisen, und letztendlich kommt man dann auf eine Lösung. Aber das Maß an ‚hands-on‘-Mentalität ist entscheidend für die Installation.

Da habt ihr bestimmt in-house eure Experten, die dann ja auch mitkommen und bei der Installation vor Ort helfen. Jetzt hattest du gerade gesagt, IP bzw. auch Ports, die irgendwo auch aus Security-Sicht aufgemacht werden. Ist es üblich, dass Kunden ihre Daten auf einen anderen Server übertragen, oder sagen sie, ‚Wir behalten die Daten hier vor Ort‘ und nutzen eine On-Premise-Lösung, oder ziehen sie in Betracht, in die Cloud zu gehen?

Philipp

Grundsätzlich ist es mit dem Transparency-Toolkit möglich, die Daten in der Cloud zu speichern. Diese Entscheidung obliegt immer dem Kunden und ob er das mit seinen Richtlinien vereinbaren kann. Ein Vorteil ist natürlich, wenn die Daten in der Cloud gespeichert sind, dass wir während des Erfassungszeitraums bereits remote darauf zugreifen können und gegebenenfalls Anpassungen vornehmen können, ohne dass jemand vor Ort sein muss, um uns die Daten in einem Meeting zu zeigen und zu bestätigen, ob alles funktioniert hat. Das ist ein extremer Zeitbeschleuniger. Andererseits, und da verstehe ich die Kunden auch teilweise, wollen sie das Thema Datensicherheit selbst verwalten, weil sie letztendlich auch dafür geradestehen müssen. Dann ist es auch grundsätzlich möglich, mit dem Transparency-Toolkit die Daten lokal zu speichern. Dann kann man die Dinge beim Abholen quasi mitnehmen und dann einlesen und auswerten. Das liegt ganz beim Kunden im Endeffekt.

Sehr gut. Das heißt, ich kann mit eurem Transparency-Toolkit die Anbindung an verschiedene Datentöpfe aber auch an verschiedene Systeme machen. Ich habe eine bestimmte Datenbasis, auf die ich zurückgreifen kann. Ich kann auch erste Maßnahmen identifizieren. Wie funktioniert die Datenanalyse?

Philipp

Grundsätzlich ist das Vorgehen so, dass wir, wenn wir die Daten dann erfasst haben, eine Plausibilisierung durchführen müssen. In erster Instanz ist es natürlich immer am hilfreichsten, wenn diese Plausibilisierung schon vor Ort vom Kunden gemacht wird. Er stellt sicher, dass er die richtigen Anschlüsse hat und die Daten in die Datentöpfe reinkommen. Jetzt kann es aber sein, dass wir die Datenqualität im Nachgang noch prüfen, wenn wir die Daten bei uns haben. Ich erfasse zum Beispiel Energiedaten und ich weiß, dass ein Stapler-Ladegerät einen ganz bestimmten Energiebedarf hat, während eine Maschine einen relativ hohen und kontinuierlichen Strombedarf hat. Wenn ich in den Daten sehe, dass da ein stabiler Energiebedarf ist und die SPS an der Stelle sagt, hier hätte der Stapler gerade getrackt werden sollen, dann können wir durch reines Anschauen der Daten sehen, dass etwas nicht stimmen kann. Vielleicht müssen dann noch andere Daten aufgenommen werden oder die Daten einem anderen Typen zugeordnet werden, um den Kontext herzustellen.

Ich habe jetzt auch bislang gelernt, ich kann durch euer Transparency Toolkit die Anbindung an verschiedene Datentöpfe, aber auch verschiedene Systeme machen, egal ob das eine SPS ist oder andere Daten. Ich habe eine Datenbasis, auf die ich zurückgreifen kann. Du hast es beschrieben, auch mit unterschiedlichem Hosting, je nachdem, wie der Kunde das wünscht. Und ich kann auch schon erste Maßnahmen identifizieren, dann auch den Business Case ein Stück weit näher bringen. Jetzt haben wir, oder du hast ja schon von Kontext und auch Vergleichbarkeit dieser Daten gesprochen. Kannst du mal erzählen, wie jetzt diese Datenanalyse funktioniert? Wir müssen ja jetzt nicht bei dem Beispiel Materialnummer bleiben, sondern vielleicht hast du noch ein anderes Beispiel, einfach nur, dass man versteht, wie macht ihr diese Datenanalyse?

Philipp

Genau. An der Stelle sei erwähnt, dass es natürlich sehr wichtig ist, die Daten zu plausibilisieren. Das heißt, in der Regel erfolgt die erste Plausibilisierung vor Ort durch den Kunden. Der stellt sicher, dass er die richtigen Anschlüsse hat. Der stellt sicher, dass die Daten in die von dir beschriebenen Datentöpfe reinkommen. Jetzt kann es aber auch sein, dass wir diese Datenqualität im Nachgang noch prüfen, wenn wir die Daten dann mal bei uns haben. Das heißt, ich verifiziere an der Stelle, ich erfasse zum Beispiel Energiedaten mit dem Transparency Toolkit und ich weiß, dass verschiedene Geräte, wie zum Beispiel ein Stapler-Ladegerät, hat einen ganz bestimmten Energiebedarf. Während eine Maschine einen relativ hohen kontinuierlichen Energiebedarf hat, hat so ein Ladegerät generell wie so eine Sinus-förmige Energiebedarf. Und wenn ich jetzt in den Daten natürlich sehe, dass hier so ein stabiler Energiebedarf ist und meine SPS sagt an der Stelle vielleicht hier hätte der Stapler gerade getrackt werden sollen, dann können wir schon durch eines anschauen der Daten sagen, ja da kann was vielleicht nicht stimmen, vielleicht müssen wir da gegebenenfalls nochmal andere Daten aufnehmen oder wir können die Daten in einem anderen Typen zuordnen, um dann eben den Kontext herzustellen.

Okay, ja, wahnsinnig spannend. Das Thema OEE war jetzt ja nur ein Beispiel. Ihr habt ja ganz unterschiedliche Kunden, und jeder Kunde bringt wahrscheinlich einen ganz anderen Case mit, der damit umsetzbar ist. Mit dem Transparency-Kit ermöglicht ihr diese drei Vorteile, die Anbindung an die Systeme und an die Geräte, die Schaffung einer Datenbasis und auch die Identifikation erster Maßnahmen. Der Use-Case ist wahrscheinlich kundenspezifisch, oder?

Philipp

Genau, auf jeden Fall. Genau, Bosch Rexroth wusste relativ genau was sie wollen, nämlich die Produktivität ihres Maschinenparks vergleichbar zu haben. Es gibt auch andere Kunden, die vielleicht noch gar nicht genau wissen, was sie mit ihren Maschinendaten machen wollen. Da gehen wir dann hin, nehmen die Daten auf und versuchen diese dann explorativ zu untersuchen. Dann kann man auch verschiedene Richtungen festlegen, wie man seine Produktion optimieren will. Sind das Daten, die in irgendwelche KI-Modelle fließen können? Muss ich mir Gedanken machen darüber, dass dieser Maschinenpark, so wie er jetzt gerade konfiguriert ist, nicht optimal ist. Das sind alles so Themen, die man durch eine explorative Analyse auch angehen kann.

[26:24] Übertragbarkeit, Skalierung und nächste Schritte – So könnt ihr diesen Use Case nutzen

Wenn ihr zuhört und denkt, ‚Hey, ich habe eigentlich einen anderen Use Case‘, lasst mich das bitte wissen. Schreibt das gerne in die Kommentare, auch bei LinkedIn unter dem Podcast-Beitrag, wenn ihr gerade zuhört. Es würde mich sehr interessieren, welche Use Cases ihr umsetzt. Philipp, die letzte Frage an dich heute. Auf was dürfen wir denn noch in Zukunft gespannt sein? Was kommt da noch? Woran arbeitet ihr gerade?

Philipp

Ja, gerne. Im Bereich Datenerfassung, was sicherlich auch immer spannend ist, ist die Weiterentwicklung der einzelnen IoT-Plattformen. Da kommt ja immer wieder Funktionalität hinzu, wo wir sicherlich noch nicht das Ende der Fahnenstange erreicht haben. Gerade was auch das Thema Kommunikationsprotokolle und Netzwerk, Stichwort 5G-Konnektivität, was da in die Hallen Einzug erhalten wird in Zukunft. Auch in Zukunft wird ein großes Thema sein, wie ich Daten erfasse, um so Thematiken wie künstliche Intelligenz zu pushen. Welche Daten muss ich erfassen, um einen guten Trainingsdatensatz zu haben? Wir wollen an der Stelle unterstützen, uns fehlt aber hier ein Datensatz, dann kann man da mit dem Transparency-Toolkit rangehen. Das sind die Fälle, die wir abdecken wollen und dann bekommt man doch eine schöne Lösung.

Ja, sehr schön. Das ist ja auch ein Riesenhebel für viele Use Cases, die ihr heute auch schon umsetzt, da nochmal mit dem Thema AI ja den Hebel reinzukriegen. Das merkt man ja jetzt auch, was man mit ChatGPT und den verschiedensten Lösungen da plötzlich für einen Hebel hat, wenn man das einmal nutzt. Und das ist schön zu sehen, dass ihr da auch weiter investiert und da eben auch weitere Funktionalitäten in Zukunft mit reinbringt.

Herzlichen Dank, dass du heute bei uns warst und einige konkrete Use Cases geteilt hast. Das ist nicht selbstverständlich, aber heute haben wir das Beispiel der OEE-Bestimmung im Bosch Rexroth-Werk mit dem ITK Transparency-Toolkit diskutiert. Wir haben auch das Thema Retrofit für die Datenerfassung allgemein und die Nutzung von Energiedaten als Use Case behandelt, den du zum Schluss noch einmal eingebracht hast. Herzlichen Dank für diese praxisorientierte Folge. Ich freue mich sehr, dass du heute dabei warst. Danke, Philipp. Das letzte Wort gebe ich jetzt an dich.

Philipp

Vielen Dank auch an dich. Mich hat es gefreut heute dabei zu sein. Ich bin gespannt, was die Zukunft noch bereithält.

Ja, ich auch. Ich glaube, da gibt es noch viele weitere coole Cases. Herzlichen Dank. Machs gut. Ciao.

Für Rückfragen stehe ich Ihnen gern zur Verfügung.

Questions? Contact Madeleine Mickeleit

Ing. Madeleine Mickeleit

Host & Geschäftsführerin
IoT Use Case Podcast