Do you want to see our content in English?

x
x

IoT & Data Science: Praktische Einblicke in Branchenprojekte

““

Klicken Sie auf den unteren Button, um den Inhalt von Spotify Player zu laden.

Inhalt laden

IoT Use Case Podcast auf Spotify anhören
IoT Use Case Podcast auf Spotify anhören
IoT Use Case Podcast auf anderen Plattformen anhören

IoT Use Case Podcast #117 - ACP CUBIDO

In der 117. Folge des IoT Use Case Podcasts dreht sich alles um die Verbindung von Data Science und IoT. Dieses Mal begrüßt die Moderatorin und Geschäftsführerin der IIoT Use Case GmbH, Ing. Madeleine Mickeleit, zwei Experten von ACP CUBIDO: Dr. Mario Schnalzenberger, Chief Data Scientist, und Cornelia Volaucnik, Data Scientist. Die Episode gewährt praktische Einblicke in verschiedene Branchenprojekte, bei denen IoT und Data Science eine zentrale Rolle spielen. 

Folge 117 auf einen Blick (und Klick):

  • [20:34] Lösungen, Angebote und Services – Ein Blick auf die eingesetzten Technologien

Zusammenfassung der Podcastfolge

Die Episode startet mit einer Diskussion über die Schnittstelle zwischen Data Science und IoT und wie diese in verschiedenen Geschäftsfällen zum Einsatz kommt. Dr. Mario Schnalzenberger und Cornelia Volaucnik erläutern anhand von drei konkreten Projekten aus den Branchen Bergbau und Metallerzeugnisse, wie Data Science dazu beitragen kann, die Produktqualität zu verbessern und die Datenaufbereitung sowie Integration in bestehende Systeme wie Data Warehouses zu optimieren.

ACP CUBIDO Digital Solutions bietet branchenübergreifende Digitalisierungslösungen an, die von Analytics und Softwareentwicklung bis hin zur Lizenzierung und Implementierung von Hardware-Infrastrukturen reichen. Besonders interessant sind die vorgestellten Kundenprojekte, darunter ÖBB mit einem Use Case für präzise Stromverbrauchsprognosen und AMAG (Austria Metall GmbH), ein führender internationaler Anbieter von Primäraluminium und Aluminiumhalbzeugprodukten, die durch innovative IoT-Anwendungen ihre Prozesseffizienz steigern.

  • AMAG (Austria Metall GmbH): Fokussiert auf die Optimierung des Produktionsdatenmanagements, was zu einer erheblichen Zeitersparnis bei der DWH-Beladung und verbesserten Datenqualität führte.
  • SAG Innovation GmbH: Ziele waren die Integration von Data Science in die Produktionslinien, um Produktivität und Produktqualität zu steigern, was zu einer Produktivitätssteigerung von bis zu 30% führte.
  • Energie Steiermark: Hier stand die Verbesserung der Prognosegenauigkeit für den Energiebedarf im Fokus, was zu genaueren Prognosen und Kostensenkungen führte.


Die Folge schließt mit einer Diskussion über die Zukunft von IoT und Data Analytics im Kundenkontext und gibt Einblicke in die Herausforderungen und Potentiale, die ACP CUBIDO in ihren Projekten identifiziert hat. Dies macht die Folge zu einer wertvollen Ressource für jeden, der an der Schnittstelle von IoT, Data Science und branchenübergreifender Digitalisierung interessiert ist.

Podcast Interview

Hallo Mario, hallo Cornelia, herzlich willkommen zum IoT Use Case Podcast. Ich freu mich sehr, dass ihr heute mit dabei seid. Wie geht’s euch, wo erreiche ich euch gerade, wo seid ihr unterwegs?

Mario

Danke für die Einladung. Du erreichst mich hier bei uns im Head Office in Leonding in Oberösterreich. Wir hatten einen angenehmen Start in eine neue Arbeitswoche, nachdem ich leider etwas länger erkrankt war. Aber jetzt bin ich wieder fit und hoffentlich geht wieder alles.

Oberösterreich hast du gesagt. Wo sitzt ihr da genau?

Mario

Es ist eine kleine Stadt neben Linz, die quasi so ein kleiner Vorort, also jetzt darf ich nicht Vorort sagen, weil es ist ja schon eine Stadt.

Linz kennt man sehr gut. Da fährt man ja auch Richtung Passau, und dann Linz darüber, das ist echt eine schöne Ecke.

Mario

Es ist vor allem mit Wels, Linz und Steyr das Industriezentrum von Oberösterreich, wenn nicht sogar von ganz Österreich, mit den größten Industrieunternehmen, die hier Stahl- und Chemieerzeugung-zentriert ist.

Sehr schön. Ich kenne sogar auch einige Hörer und Hörerinnen aus der Region persönlich, generell auch aus Österreich. Freut mich sehr, dass du heute mit dabei bist. Cornelia, wie geht es dir? Wo erreiche ich dich?

Cornelia

Mir geht es sehr gut, danke. Ich freue mich, dass ich dabei sein darf und ich bin genau wie der Mario bei uns im Büro in Leonding im Raum nebenan sozusagen.

Freut mich sehr, dass du heute auch mit dabei bist. Machen wir eine kurze Vorstellung zu eurer Firma. Die ACP CUBIDO Digital Solutions GmbH ist Teil der ACP Holding Digital AG. Ihr bietet vor allem Analytics und Software Development und dazugehörige Hardware-Themen, Lizenzierung, (Cloud-)Infrastruktur, Implementierung und Support dazu.Alles aus einer Hand. Wichtig ist, ihr habt den Schwerpunkt auf Analytics und Software Development. Darum geht es auch heute. Ihr sorgt dafür, dass die richtigen Daten zur richtigen Zeit am richtigen Ort vorhanden sind. Wie das genau funktioniert, das erfahren wir heute an euren Kundenprojekten aus der Praxis. Cornelia, mit welchen Kunden arbeitet ihr denn überhaupt?

Cornelia

Ich bin mit ähnlichen Kunden unterwegs. Was wir heute vorstellen, ist zum Beispiel aus dem Metallbereich. Wir haben schon mehrere Projekte mit Energiedienstleistern gehabt. Aber prinzipiell haben wir wirklich diesen Datenfokus.

Ja, ihr seid branchenübergreifend unterwegs. Jetzt spreche ich im Podcast immer über verschiedenste Projekte und vor allem auch Use Cases aus der Praxis. Cornelia, du hast es gerade schon angesprochen, ihr habt verschiedene Projekte mit Kunden. Mit welchem Projekt bist du heute dabei oder was beleuchten wir ein bisschen im Detail? Welche Use Cases gehen damit einher?

Cornelia

Ja, sehr gerne. Das Projekt, über das ich heute sprechen will, das ist eben mit der AMAG Austria Metall GmbH. Die produzieren Aluminiumbänder, Bleche, Aluminiumplatten etc. Das Projekt, das wir mit ihnen umgesetzt haben, war im Bereich Predictive Quality. Das war wirklich ein sehr beeindruckendes Projekt, bei dem wir Prozessdaten analysiert haben, um herauszufinden, welchen Einfluss sie auf die Produktqualität haben.

Ja, sehr cool. Ich würde auch gleich nochmal ein bisschen tiefer nachfragen. Mario, mit welchen Kunden bist du so unterwegs und was für Use Cases bearbeiten die?

Mario

Ich habe zwei kleine Beispiele mitgebracht. Das erste betrifft die ÖBB, die bereits seit fast 10 Jahren mit unserer präzisen Stromverbrauchsprognose arbeitet. Was verbraucht am meisten Strom? Natürlich die Zugmaschinen. Der Verbrauch ist so aufgeteilt, dass diese Zugmaschinen den Strom entsprechend auch von der Infrastruktur beziehen müssen. Es handelt sich um eine beträchtliche Menge an Strom, die dort verbraucht wird, und eine präzise Stromprognose zahlt sich insofern aus, als dass ich beim Kauf am internationalen oder nationalen Markt viel Geld sparen kann. In dem Use Case selbst wurde von mehreren 100.000 Euro pro Jahr gesprochen und das schon vor vor 9 Jahren jetzt und das zieht sich jetzt schon durch. Stromverbrauchsprognosen zahlen sich definitiv aus für die Unternehmen.

Der zweite Use Case, ein OEE-Use-Case, den werden hoffentlich die meisten Zuhörer kennen, wenn sie aus der produzierenden Branche sind. Das ist eben der Overall Equipment Efficiency kombiniert mit mit Predictive Quality oder Predictive Maintenance. Das ist von der SAG, der Salzburg Aluminium Group. Dort haben wir mit unserer Implementierung eines OEE zusammen mit Predictive Quality eine Produktivitätssteigerung von bis zu 30 Prozent erreicht. Dies ist der zweite Use Case, den wir genauer anschauen wollen.

Ja, mega spannend. Das heißt, SAG ist sozusagen Hersteller von Aluminium-Profilen oder was stellen die her?

Mario

In diesem Case sind es Aluminiumbehälter. Die SAG ist auf Aluminiumbehältnisse fokussiert und in dem speziellen Fall dann Druckbehälter für Fahrzeuge, also da wo quasi irgendwelche Gase mit Druck aufbewahrt werden. Egal ob das jetzt Kompressoren, Speicher oder andere Teile sind.

Bevor wir jetzt in die Details der Projekte einsteigen, vielleicht noch mal eine Frage vorab. Ihr seid jetzt mit ganz unterschiedlichen Kunden in der Praxis unterwegs. Was ist denn da eure Vision mit dem Thema IoT und eurem Schwerpunkt Data Analytics? Was ist die Vision, die ihr mit euren Kunden verfolgt?

Mario

Grundsätzlich sehe ich IoT und die Zugangsweise diese Daten zu verarbeiten als so essenziell wie die Elektrizität selbst. Man sollte diese Form von Datenverarbeitung als ganz normal und tagtäglich ansehen, denn wer weiß, wie seine Maschinen funktionieren, was seine Kunden genau brauchen und wie sie es genau brauchen, kann viel besser und viel effizienter Maschinen oder Produkte produzieren und diese in der Folge günstiger und effizienter anbieten. Das wird über kurz oder lang eine Selbstverständlichkeit werden, so wie es anfänglich quasi nicht essentiell war, dass man Maschinen miteinander verbinden konnte in der Produktion oder dass eine Maschine eine Internetanbindung hat. Jetzt ist das quasi tagtäglich der Fall.

Das, was ja vor allem auch viele interessiert, ist so der Business Case hinter den Projekten. Ihr habt ja jetzt schon die Use Cases angesprochen. Es geht um Predictive Quality, es geht um OEE. Starten wir mal mit SAG. Mario, was ist der Business Case für SAG hinter diesem Projekt? Warum sind die den Weg gegangen?

Mario

Grundsätzlich ist immer zu sagen, Ziel ist nicht IoT. Es soll auch nicht IoT sein, das Ziel soll immer eine Lösung sein, die mir weiterhilft. Das heißt, das wird mit einem Problem oder einer Herausforderung kommen, die ich dann lösen kann. Das heißt, prädiktive Wartung, prädiktive Qualität. Wie kann ich dein Produkt jetzt wirklich besser machen und vielleicht dazu IoT verwenden. Das muss ja gar nicht sein. Bei der SAG gab es ein Thema bei der Ausschussminimierung. Sie haben einen extrem innovativen Prozess in der Herstellung. Dort haben sie sogar einige Patente in diesem Bereich. Insbesondere beim Schweißen gab es immer wieder Herausforderungen, und die Metallurgen standen vor einem Rätsel. Einerseits hatten sie keine Daten, weil sie diese nicht aufgezeichnet hatten. Andererseits, da der Prozess wirklich völlig neu war und patentiert wurde, war er äußerst innovativ. Dadurch wurde das Unternehmen einzigartig, da es das einzige war, das solche Produkte herstellte. Dies stellte eine besondere Herausforderung dar, da es keine Erfahrungen von anderen gab, auf die man aufbauen konnte. Daher war es umso wichtiger, die eigene Erfahrung zu nutzen. Wie ich immer sage, Erfahrung und Wissen sind in den Daten enthalten, und genau hier setzen wir an. Wir sammeln die Daten und versuchen, diese Erfahrung dann zu nutzen. Der Outcome war schlussendlich eine Produktivitätssteigerung von 30 Prozent. Es ist essentiell gewesen, dass wir herausgefunden haben, wo die zwei, drei Knackpunkte an den entsprechenden Stationen sind. Das ist quasi eine Behandlung, wo vier, fünf verschiedene Stationen davor schon waren, vor dem Schweißroboter. Insgesamt hatte die Produktionslinie sieben Stationen. Dort wirklich herauszufinden, warum etwas nicht ganz hinhaut, warum irgendwo etwas nicht ganz dicht ist. Beim Druckbehälter ist Dichtheit das oberste Qualitätsziel. Dort dann herauszufinden, woran liegt das und wie kann ich das optimieren. Wir haben zusätzlich noch andere Dinge herausgefunden. Wenn ich mal Daten sammle, kann ich die Daten auch auf eine andere Art und Weise auswerten. Das ist auch immer so ein Punkt. Daten nicht zum Selbstzweck, nicht nur zu einem Zweck, sondern auch immer gleich von mehreren Seiten beleuchten. Das ist so ein bisschen der Clou.

Okay, das heißt, ihr habt sozusagen eine Optimierung der Datenaufbereitung vorgenommen. Ging es da auch um ein bestimmtes System, das ihr beim Kunden dort angebunden oder optimiert habt? Ging es da um die generelle IT-Architektur, die an dieser Linie dann hängt?

Mario

Beides eigentlich. Also einerseits haben sie natürlich, da es eine patentierte Sache ist, bis runter zur Systemsteuerung viel selbst programmiert. Dadurch haben wir viele Möglichkeiten gehabt an vielen verschiedenen Stellen Dinge einzubauen. Aber an anderen Stellen haben sie fix fertige Gerätschaften, wie zum Beispiel so einen Schweißroboter. Da gibt es verschiedene Anbieter, da nimmt man so einen Schweißroboter, den kann man dann programmieren und dann ist er fertig. Daran kann man nichts mehr ändern, aber auch dort kann man wiederum die Daten abgreifen. Bei einem Teil kann man wirklich Dinge selbst machen, beim anderen Teil muss man einfach das nehmen, was da ist und versuchen das so weit wie möglich auszunutzen. Wir haben die Sichtweise der Leute verändert. Digitalisierung startet nicht nur an der Maschine, sondern schon im Kopf der Mitarbeiter. Wenn ich etwas mache, dann sollte das wirklich zuordenbar und klar sein, wo das herkommt. Deswegen sind diese ganzen Extraarbeiten, wie irgendwo was eingeben, steuern oder zusätzlich einen Knopf drücken, nicht nur da, um sich zu ärgern und zu beschäftigen. Am Ende des Tages hat das geholfen, diese 30 Prozent Produktivitätssteuerung zu erreichen. Das war dann so irgendwie der Türöffner, der gezeigt hat, das es nicht dazu da, um sie zu ärgern, zu ersetzen oder sonst irgendwas, sondern ihnen die Arbeit leichter zu machen. Weniger Ausschuss bedeutet auch weniger Arbeit, die ich nicht mag, also Dinge aussortieren, irgendwo wegschmeißen, wieder zurückführen, zusätzliche Handgriffe und so weiter und so fort.

Bei SAG habt ihr sozusagen diese Anbindung der Produktionslinie mit verschiedenen Assets, zum Beispiel diesen Robotern, an die IoT-Plattform durchgeführt. Das Thema Data Acquisition habt ihr übernommen, dann habt ihr OEE als Use Case umgesetzt und das letzte geht dann in Richtung Predictive Quality Control, also Produktqualität, auch Nachvollziehbarkeit von solchen Produktionsdaten.

Cornelia, du hattest AMAG angesprochen als Kunde. Was habt ihr dort gemacht? Sind das die gleichen Use Cases oder andere?

Cornelia

Nein, das ist schon ein anderer Use Case. Es gibt natürlich gewisse Ähnlichkeiten. Prinzipiell war das Ziel da wirklich, herauszufinden, welche Produktionsschritte am meisten Einfluss auf die Qualität vom Endprodukt haben. So ein Aluminium-Barren durchläuft ganz viele Produktionsschritte. Da sind auch sehr viele Einflussfaktoren, die da drauf auswirken. Das geht durch ganz viele Anlagen durch. Es kann wirklich sehr lange dauern, bis so ein Produktionszyklus fertig durchlaufen ist. Im Prinzip will man wissen, wenn die Qualität von einem Endprodukt nicht passt, was der ausschlaggebende Faktor war. Das haben wir durch dieses IoT-Projekt wirklich analysiert. Da haben wir statistische Analysen gemacht und eben Data Science-Methoden, die ermittelt haben, welche Prozessparameter Einfluss aufs Endprodukt haben. Bei diesem Projekt war gerade die korrekte Transformation von diesen Sensordaten, die da gesammelt worden sind, sehr wichtig. Da war sehr viel Data Engineering involviert.

Hattet ihr den Schwerpunkt in diesem Projekt hauptsächlich auf der Datenerfassung, also der Anbindung der Daten, oder lag der Fokus eher auf der Datenverarbeitung am Ende? Wo lag der Schwerpunkt in diesem Projekt?

Cornelia

Ich würde sagen, bei dem Projekt war beides ganz wichtig. Das waren ja wirklich sehr viele Daten, sehr große Datenmengen. Dadurch, dass man diesen Produktionsprozess abbilden wollte, war das Data-Engineering sehr wichtig, weil man einfach diese Komplexität mitnehmen muss.

Gab es ein bestimmtes System, das für den Kunden interessant war anzubinden oder ging es allgemein um die Datenanbindung der Produktionslinie?

Cornelia

Nein, das war sozusagen die Datenanbindung der Linien generell.

Vielen Dank schon mal für die Vorstellung für diese zwei Kunden. Was ja für viele Kunden oder Endanwender auch immer spannend ist, ist die Integration an verschiedene Gewerke, an andere Unternehmen, Tochterfirmen und so weiter. Wie ist das bei AMAG gewesen? Ist das auch ein Thema, dass man jetzt mit IoT auch andere Gewerke anbindet? Wie wichtig ist es für eure Kunden, andere Stakeholder mitzuinvolvieren?

Mario

Grundsätzlich bei beiden Kunden war es so, dass wir mit einem Unternehmen gearbeitet haben, das war immer eine zentrale Innovationsstelle, wenn man so will, also mit unterschiedlichen Namen, ob es jetzt Big Data, Digitalization oder Innovation ist. Die hat man mit verschiedensten Tochter- oder Schwesterunternehmen zusammen an verschiedensten Stellen realisieren müssen. Ganz spannend wird es dann, wenn man nur zusätzlich Dritt- und Viert-Anbieter hat, die dann quasi im ERP-System Erweiterungen realisieren müssen. Die Spezial-ERP-Systeme haben dann wieder von jemanden implementiert angepasst werden müssen. Am Ende des Tages steht zumeist eine große Projektgruppe am Tisch, die darüber sprechen muss, wo, was und wie angepasst werden muss. Denn ich bin immer der Überzeugung, das versuche ich auch immer bei den Kunden und Projektpartner auch unterzubringen, man sollte die Probleme dort lösen, wo sie effizient gelöst werden können. Das heißt effizient im Sinne von möglichst wenig Aufwand rundherum und möglichst wenig Betroffenheit zu verursachen. Misst ein Sensor etwas falsch, dann sollte ich den Sensor nicht an 27 Projekt-Partner schicken und diese die Korrektur rechnen lassen, sondern ich mache die Korrekturrechnung an einer Stelle und schicke die korrigierten Werte weiter. Das ist jetzt sehr trivialisiert, es gibt viel komplexere Tatsachen, aber so in etwa sollte es geschehen und das ist auch immer irgendwo der Ansatz, den wir verfolgen. Wir bemühen uns, bestimmte Probleme möglichst frühzeitig zu beheben, um uns dann nicht jedes Mal erneut die Frage stellen zu müssen, ob die vorliegende Information wirklich korrekt ist.

Noch mal zu SAG, da sind verschiedenste Daten relevant, die dort angebunden werden. Was für Arten von Daten sind da relevant? Geht es um Echtzeitdaten? Kannst du ein bisschen mehr über die Daten erzählen, die du dort angebunden hast?

Mario

Grundsätzlich beinhaltet das IoT immer Echtzeitdaten, wenn wir mit Maschinen kommunizieren. Das bedeutet, der Kern besteht immer aus Echtzeitdaten von Maschinen, die aktiv oder passiv Daten senden. Zum Beispiel wurde der Roboter über AB angesprochen und von dort wurden die Daten abgerufen. Sobald der Schweißprozess abgeschlossen war, haben wir einen Trigger erstellt, der die Daten zurückgeschickt hat. Je nachdem, wie unser Partner oder Datenlieferant agiert, werden die Daten abgerufen. Wir verwenden JSON oder Parquet, um die Daten bereitzustellen, je nach Anforderung. JSON ist vorteilhaft, da es ein flexibles Format im IoT-Umfeld ist, das jederzeit Daten hinzufügen oder entfernen kann. Parquet ist ein kompaktes und effizientes Format, insbesondere für große Datenmengen, jedoch weniger flexibel in anderen Szenarien. Wenn es um die Integration in ERP- oder andere Systeme geht, erfolgt die Anbindung direkt. Das bedeutet, wir beziehen Daten aus verschiedenen Quellen, darunter Systemquellen und klassische Methoden wie Datenerfassung von Aufträgen und Kundendaten. Diese Informationen werden benötigt, um Kennzahlen wie die Gesamtanlageneffizienz (OEE) zu berechnen, einschließlich Produktivität und andere Faktoren. Es ist wichtig zu beachten, dass diese Informationen normalerweise nicht in der Maschine selbst enthalten sind, da Maschinen hauptsächlich für die Produktion ausgelegt sind. Den OEE kann man nur mit einer gewissen Steuerungsinformation berechnen.

[20:34] Lösungen, Angebote und Services – Ein Blick auf die eingesetzten Technologien

 

Lasst uns mal so ein bisschen in die Lösung eintauchen, die ihr für den Kunden aufgebaut habt. Ich glaube, gerade in dem Abschnitt haben sich viele auch wiedergefunden. Ich meine, die Prozesse und auch die Herausforderungen sind heute sehr ähnlich, was die Use Cases angeht. Wie habt ihr es jetzt gemacht? Wie habt ihr bei SAG die Lösung aufgebaut?

Mario

Wenn ich zum Beispiel drei Teile von Maschine 1 in Maschine 2 montiert habe und so weiter, kann man sich das ein wenig wie Lego vorstellen. Am Ende haben wir ein Produkt, aber zu Beginn der Produktionslinie werden sieben oder zehn Teile betrachtet. Trotzdem möchten wir am Ende wissen, ob das Produkt insgesamt gut oder schlecht ist. Diese umfassende Auswertung und das Zurückverfolgen von Qualitäten nach vorne und hinten ermöglichen es uns, Informationen zu jedem Produktionsschritt sowohl isoliert als auch im Gesamtkontext zu betrachten. Diese Betrachtungsweise von groß zu klein und von klein zu groß, zusammen mit den entsprechenden Auswertungen, hat zu bedeutenden Erkenntnissen geführt. Zum Beispiel stellten wir fest, dass die Taktraten nicht genau stimmten, da die ERP-Seite ins Spiel kam und Informationen nicht übereinstimmten. Dies ermöglicht es uns, ein ganzheitliches Bild eines Unternehmens zu erstellen und zu erkennen, dass Änderungen bei der Verfügbarkeit und Produktivität sowie im Einkauf, in der Produktionsplanung oder im Verkauf erforderlich sein können. Dies kann bedeuten, dass wir den Produktpreis anpassen müssen oder eine bessere oder schlechtere Bewertung im Einkauf vornehmen müssen. Dies ist das Besondere an unserer Lösung: Am Anfang steht der OEE, am Ende erhalten wir Antworten auf viele Fragen.

Was das Projekt ja auch nochmal besonders macht, ist dieses OEE-Dashboard, was ihr dort auch gebaut habt, wo man diese Produktionslinie mit verschiedenen Vorsystemen oder auch bestimmten anderen IT-Systemen gekoppelt hat, die bei der Berechnung der KPI sozusagen herangezogen wurden. Wie habt ihr das vom Technologie-Stack her gemacht? Man muss ja irgendwo die Daten aufnehmen, weiterverarbeiten und dann die Analyse fahren. Ich weiß, dass ihr auch sehr viel mit Azure arbeitet. Waren das dann hauptsächlich Azure Services? Nehmt ihr die Daten auf und gebt sie dann in den Azure Service weiter in die Cloud oder wie habt ihr das genau gemacht?

Mario

Grundsätzlich ja, wir sind Microsoft Partner und verwenden deswegen auch vorrangig Azure. In der Lösung wurde nur Azure verwendet, wenn man so will. Die On-Premises-Abgreifmethoden sind natürlich nicht in der Cloud integriert, aber ab dem Zeitpunkt Edge, ist alles in der Cloud. Ein Aha-Effekt war start small, grow big und dass die Kostenversprechungen erfüllt wurden. Wir können das Volumen einfach skalieren. Wenn wir mit einer Maschine beginnen, müssen wir nur das Volumen für diese Maschine berücksichtigen. Wenn es wächst, passt es sich problemlos an, da wir die erforderlichen Potenziale haben. Das bedeutet, wir sind nicht durch Beschränkungen eingeschränkt. Was die Daten betrifft: Wenn es um Auswertungen geht, arbeiten wir gerne mit Power BI. Power BI bietet zwei Hauptmethoden für die Arbeit in diesem Kontext. Eine davon ist die Direktanbindung an Datenströme. Das funktioniert ziemlich performant, ist jedoch zeitnah und daher stark gebunden, da die Informationen bereits zum Zeitpunkt der Abfrage vorhanden sein müssen. In einigen ERP-Systemen kann es gelegentlich Probleme geben, wenn beispielsweise Auftragsdaten noch nicht vollständig erfasst sind, was dazu führen kann, dass der Auftrag noch nicht angezeigt wird. Das ist ein Problem, das wir bei mehreren Kunden erlebt haben, und es ist unabhängig vom Kunden. Um sicherzustellen, dass die Daten trotzdem korrekt sind, haben wir kombinierte Methoden entwickelt. Diese Methoden werden täglich im Nachhinein angewendet, um die Daten zu korrigieren. Dadurch bietet das OEE-Dashboard eine 100-prozentige Abdeckung, auch für den letzten Tag. Für jedes Teil ist genau erfasst, zu welchem Auftrag es gehört, wie gut es in der Produktion hergestellt wurde und welchen Effekt es auf den OEE hat. Es wird erfasst, ob es ein gutes oder schlechtes Teil ist, ob es später in einem anderen Teil verwendet wurde, das dann ein Schlechtteil wurde, und so weiter.

Cornelia, wir hatten ja jetzt auch über AMAG gesprochen. Wie habt ihr es da gemacht? Am Ende ging es schließlich um die Optimierung und Modernisierung des Datenmanagements. Du hast es gerade ein bisschen auch vorgestellt, was das Ziel war. Wie habt ihr es dort gelöst, von der Anbindung über die Verarbeitung bis hin zur Analyse? War das der gleiche oder ähnliche Case oder wie habt ihr es da gemacht?

Cornelia

Ja, also technisch ähnlich, aber nicht identisch, würde ich sagen. Die Daten kamen über einen HPC, wurden dann über einen IT-Hub geleitet und schließlich über Stream Analytics in einen Data Lake geschrieben. Das war wirklich ein großer Teil des Projekts, da hier komplexe Prozesse abgebildet wurden. Die Datenverarbeitung und Analyse erfolgte dann in Azure Databricks. Wie Mario bereits erwähnte, arbeiten wir in Azure für alle diese Komponenten.

Jetzt hast du ja am Anfang auch über verbesserte Qualität gesprochen, insbesondere im Zusammenhang mit Predictive Quality als Use Case. Wie habt ihr eigentlich die Produktionsparameter analysiert? Geht ihr wirklich tief ins Detail und untersucht verschiedene Datentypen? Du hast gerade einige Beispiele genannt. Wie habt ihr es geschafft, die Analyse für eine verbesserte Datenverfügbarkeit am Ende und die Nachvollziehbarkeit dieser Produktionsparameter, die sich auf die Qualität auswirken, wirklich durchzuführen? Wie habt ihr das gemacht?

Cornelia

Da haben wir intensiv mit Databricks gearbeitet, und hier lag der Schwerpunkt darauf, all diese Sensordaten bis zum Endprodukt zu verfolgen. Im Produktionsprozess geschieht viel, wie beispielsweise Verformungen oder Schnitte, und wir haben eng mit unserem Kunden, AMAG, zusammengearbeitet, um sicherzustellen, dass wir den Datenverarbeitungsprozess richtig und genau abbilden. Auf diese Weise konnten wir tatsächlich die Qualitätseinbußen am Endprodukt auf die Sensoren zurückverfolgen und die entsprechenden Korrelationen finden. Wenn beispielsweise die Temperatur eines Sensors zu hoch ist oder ein anderer Prozessparameter anders eingestellt ist, wirkt sich dies auf unser Endprodukt aus.

Das bedeutet, am Ende habt ihr dem Kunden eine Ende-zu-Ende-Lösung bereitgestellt und gemeinsam mit ihm weiterentwickelt. Diese Lösung umfasste die Integration von Daten und die effektive Nutzung dieser Daten im System, was letztendlich zu einer verbesserten Datenverfügbarkeit führte. Ihr habt natürlich auch eure eigenen Tools eingesetzt. Es ist auch so, dass ihr verschiedenste Tools, Features und auch Dinge weiterentwickelt. Was kommt denn da in Zukunft noch? Was sind so die Trends, die sich abzeichnen? Auf was dürfen wir gespannt sein von CUBIDO-Seite, was jetzt die nächsten Jahre noch kommt?

Mario

Wow, was kommt? Für mich sehe ich im IoT-Bereich definitiv die Zukunft, dass jeder IoT brauchen wird und jeder diese Daten auswerten wollen wird. Citizen Data Science wird ein Thema werden, das heißt, dass wirklich jede Firma eigene Data Science-Agenten haben wird, um die Analysen durchzuführen. Das bedeutet wirklich zu sagen, dass jede Firma ihren eigenen Analysten hat, der damit arbeiten möchte. Daher benötige ich die Daten, denn ohne Daten gibt es keine Analyse, das ist ein wesentlicher Punkt. Ein weiteres großes Thema ist natürlich AI. Egal, ob wir über Chatbots oder andere AI-Methoden sprechen, es handelt sich um ein bedeutendes Thema. Dabei geht es einerseits um die Anwendung von AI als Werkzeug, um die Arbeit zu erleichtern und Labortätigkeiten zu reduzieren, beispielsweise um die Vorhersage von Produktqualität anhand von Bildern oder anderen Methoden, um die Predictive Quality wirklich zu beschleunigen. Andererseits geht es darum, Methoden zu haben, die Antworten liefern können, und hier ist ChatGPT eine Möglichkeit. Es ist zwar noch nicht perfekt, aber es ist zumindest schon eine Option, um auf eine Vielzahl von Fragen Antworten zu erhalten. Es wird jedoch stark davon abhängen, wie die Informationen aufbereitet werden. Hier kommen wir wieder zum Data Engineering und zur Aufbereitung der Informationen, und ich glaube, hier erwartet uns eine große Menge Arbeit. Egal, wohin man schaut, es wird immer über das gesprochen, was ChatGPT und andere Tools können. Es wird jedoch selten darüber gesprochen, welche Vorarbeit dafür erforderlich ist, nämlich die Übersetzung dieser Informationen, damit ChatGPT damit denken kann.

Ja, absolut. Was du sagst, ist genau der Kernpunkt, nämlich die Verarbeitung der Daten und insbesondere die Bereitstellung der richtigen Daten sowie deren Identifizierung. Die beiden Projekte, die ihr heute vorgestellt habt, zeigen auch die beeindruckenden Möglichkeiten von IoT in Kombination mit Data Science. Die Echtzeitdaten aus dem Feld, die mit Analytik und Data Science kombiniert werden, bieten immense Möglichkeiten.

Wir haben heute zwei spannende Fälle kennengelernt, sowohl von der Seite AMAG als auch von der Seite SAG, die echte Business Cases damit heben. Ich denke, es gibt noch viel Potenzial für die Zukunft. Cornelia, du bist ja jetzt Expertin, insbesondere in diesen AI-Themen. Gibt es noch Ergänzungen von deiner Seite? Wie siehst du die Zukunft? Was steht uns noch bevor?

Cornelia

Ja, also eigentlich hat Mario das schon ganz gut zusammengefasst. Ich denke auch, dass gerade AI-Themen im Zusammenhang mit IoT-Daten wirklich sehr spannend werden in den nächsten Jahren. Gerade wenn es um Predictive Quality im Bereich Bilderkennung geht oder so, weil man das schon extrem gut analysieren kann. Oft ist wirklich der springende Punkt, dass ich die richtigen Daten brauche. Ich muss die richtigen Daten vielleicht noch sammeln, aber längerfristig gibt es da wirklich ganz viel Potenzial.

Ich würde mich sehr darüber freuen, wenn wir vielleicht eine Sonderfolge zu diesem Thema machen könnten, da heute nur angeteasert wurde, welche Möglichkeiten es gibt. Ich war wirklich beeindruckt von den beiden Projekten, die ihr heute zusammen mit euren Kunden CUBIDO vorgestellt habt.

Wir haben gelernt, dass AMAG, ein führender Anbieter von Aluminiumprodukten, durch die Modernisierung mit eurer Hilfe erhebliche Zeitersparnisse bei der Produktionsdatenverwaltung erzielt hat. Im zweiten Projekt, in Zusammenarbeit mit SAG Innovation, haben wir auch die Macht der Kombination von IoT und Data Science im Aluminiumherstellungs-Bereich gesehen, wodurch sie ihre Produktivität um 30 Prozent steigern konnten. Das sind wirklich spannende Fälle. Ich würde für heute das letzte Wort noch mal an euch übergeben. Herzlichen Dank, dass ihr mit dabei wart. Vielen Dank für die ganzen spannenden zusammenarbeitet und damit würde ich das letzte Wort an euch übergeben.

Mario

Danke Madeleine für die Einladung und für die Möglichkeit, heute hier unsere Projekte vorstellen zu dürfen. Ein Kern ist immer das Gemeinsame hervorzuheben, das heißt wir versuchen wirklich mit dem Kunden individuell heranzugehen, den Kunden weiter an der Hand zu nehmen, auch mitzunehmen auf die Reise. Denn eines unserer Ziele ist auch den Kunden quasi selbstständig weitergehen zu lassen, um dann wirklich schneller voranzukommen. Das heißt, die Leute auch soweit IoT-enablen zu können.

Cornelia

Danke, dass wir dabei rum sein dürfen. Ich habe das Gefühl, meine Erfahrung aus dem Projekt ist, dass die gute Zusammenarbeit mit dem Kunden ganz wichtig ist. Gerade wenn es um das Prozesswissen geht und das inhaltliche Wissen zu den Daten, da ist es einfach wichtig, dass man im Projekt ganz stark mit dem Kunden zusammenarbeitet.

Sehr schön. Dann vielen lieben Dank für die letzten Schlussworte für heute und ich wünsche euch noch eine schöne Restwoche. Macht’s gut und ja, bis zum nächsten Mal.

Mario

Danke, bis zum nächsten Mal, ciao!

Cornelia

Danke, ciao!

Ciao!

Für Rückfragen stehe ich Ihnen gern zur Verfügung.

Questions? Contact Madeleine Mickeleit

Ing. Madeleine Mickeleit

Host & Geschäftsführerin
IoT Use Case Podcast