Do you want to see our content in English?

x
x

IoT-Data Science – so geht skalierbare Umsetzung und Integration

““

Klicken Sie auf den unteren Button, um den Inhalt von Spotify Player zu laden.

Inhalt laden

IoT Use Case Podcast auf Spotify anhören
IoT Use Case Podcast auf Spotify anhören
IoT Use Case Podcast auf anderen Plattformen anhören

IoT Use Case Podcast #129 - All for One + avantum consult

Verschmelzung von IoT und KI: In der 129. Folge des IoT Use Case Podcast sprechen wir darüber, wie die Kombination von IoT-Daten und maschinellem Lernen neue Möglichkeiten zur Prozessoptimierung und Interaktion in der Industrie eröffnet. Zu Gast sind Jakob Procher, zur Zeit der Podcastaufnahme Consultant KI & Data Science bei der avantum consult GmbH, und Andreas Lehner, Leiter Innovation bei der blue-zone GmbH, stellvertretend für unseren IoT-Partner All for One.

Folge 129 auf einen Blick (und Klick):

  • [13:15] Herausforderungen, Potenziale und Status quo – So sieht der Use Case in der Praxis aus
  • [23:48] Lösungen, Angebote und Services – Ein Blick auf die eingesetzten Technologien

Podcast Zusammenfassung

Die Episode handelt von der revolutionären Verschmelzung von IoT und KI, die neue Möglichkeiten zur Optimierung von Prozessen und zur Verbesserung der Interaktion in der Industrie eröffnet. Experten wie Jakob Procher und Andreas Lehner teilen ihre wertvollen Einblicke in die Implementierung und das Potenzial dieser Technologien, untermauert durch praktische Beispiele aus ihren eigenen Erfahrungen. Projekte wie shopfloor.GPT illustrieren, wie Large Language Models in der Industrie angewendet werden können, um Effizienz zu steigern und Störungen schneller zu erkennen und zu beheben.

Ein zentraler Diskussionspunkt ist die unverzichtbare Rolle von Datenqualität und -anbindung für den Erfolg von KI-Anwendungen. Konkrete Anwendungsfälle, wie die Optimierung von Schmiedemaschinen und Schwerlasttransportern, veranschaulichen, wie spezifische Probleme durch den Einsatz von KI und IoT gelöst werden können.

Die Folge beleuchtet außerdem die Bedeutung von Cloud-Technologien, die als Katalysator für effektive Datenkonnektivität und die Realisierung von KI-Projekten dienen. Ein weiterer wichtiger Aspekt sind die Prinzipien von MLOps und DevOps, die die Automatisierung und Effizienz von KI-Projekten unterstützen.

Den Blick in die Zukunft werfend, thematisiert die Podcastfolge Trends wie Explainable AI und Responsible AI als zukünftige Schwerpunkte in der KI-Entwicklung. Diese Entwicklungen haben das Potenzial, die Transparenz und Verantwortlichkeit von KI-Modellen zu erhöhen und ihre Integration in die Industrie zu erleichtern.

Die wirtschaftlichen Vorteile solcher Technologien, einschließlich der Reduzierung von Ausschussraten und der Optimierung von Produktionsprozessen, werden als entscheidender Mehrwert für Unternehmen hervorgehoben. Abschließend betont die Episode die Notwendigkeit einer strategischen Implementierung von KI-Technologien, um echte Geschäftsprobleme effektiv zu adressieren und langfristigen Erfolg zu sichern.

Podcast Interview

Heute beleuchten wir eine wirklich faszinierende Entwicklung am Markt: Mehr und mehr werden IoT-Daten mit maschinellem Lernen kombiniert. Man nutzt IoT-Daten und versucht, spezielle Insights und Algorithmen einzusetzen, um Mehrwerte zu heben. In unserem Netzwerk sehen wir bereits erste Pilotprojekte, die mit Large Language Models arbeiten und so eine neue Dimension in der Interaktion und Prozesssteuerung der Industrie ermöglichen. Ein spannendes Beispiel ist shopfloor.GPT. Vielleicht habt ihr schon von ChatGPT gehört, eine Folge speziell zu diesem Thema folgt bald. Solche Tools erleichtern Anwendern die effizientere Arbeit, helfen bei der schnelleren Erkennung und Behebung von Störungen – und das alles mithilfe künstlicher Intelligenz. Doch wie funktioniert das genau und welche Use Cases gibt es? Was ist bei der Umsetzung zu beachten? Diese Fragen beantworten heute Jakob Procher, Consultant Künstliche Intelligenz & Data Science, von der avantum consult GmbH und Andreas Lehner, Leiter Innovation, von blue-zone, stellvertretend für die Partnerschaft mit All for One. Was die Firmen genau tun und wie das in der Praxis aussieht, betrachten wir heute.

Ein herzliches Hallo an Andreas und Jakob. Zuerst, wie geht es euch? Wo erreiche ich euch gerade?

Andreas

Hallo Madeleine, herzlichen Dank für die Einladung. Es freut mich, wieder bei einem Podcast dabei sein zu dürfen. Wie das letzte Mal melde ich mich aus Österreich. Das Wetter ist heute zwar nicht ideal, aber ich freue mich auf den Use Case, das tut dem keinen Abbruch.

Bei dieser Gelegenheit, wenn ihr Lust habt, Folge 57 mit Andreas und Frauscher, einem Kunden aus dem Bereich der Bahnschienentechnik, ist sehr empfehlenswert und immer noch aktuell. Eine wirklich faszinierende Folge, die Sie sich gerne anhören können. Heute ist es mir eine besondere Freude, auch Jakob in der Runde begrüßen zu dürfen. Wie geht es dir und wo befindest du dich gerade?

Jakob

Hallo Madeleine, freut mich auch, dass ich heute eingeladen wurde und dass das alles so super hingehauen hat. Ich sitze aktuell in Düsseldorf, ich bin im Homeoffice und werde euch heute ein bisschen was zu meinem Arbeitsalltag bzw. zum Bereich KI im Rahmen von IoT erzählen.

Sehr schön. Ich freue mich, zwei Experten heute mit dabei zu haben. Kannst du ein bisschen mehr über deine Rolle bei avantum consult erzählen und wie ihr Unternehmen bei der Implementierung von KI-Strategien unter anderem auf Basis von IoT-Daten unterstützt. Kannst du uns da mal ein bisschen mitnehmen? Was ist deine Rolle genau?

Jakob

Klar, sehr gerne. Also meine genaue Berufsbeschreibung ist Berater für KI und Data Science. Dementsprechend behandle ich eigentlich alle Themen, die irgendwas in die Richtung zu tun haben. Avantum consult ist eine Beratung für Analytics-Themen. Das heißt, wir arbeiten Unternehmensdaten auf. Da sind wir jetzt nicht explizit nur auf die IoT-Thematik eingeschossen, aber das ist eben auch ein großer Punkt, den wir behandeln. Ich habe einen Hintergrund im Maschinenbau, deswegen behandle ich ganz gerne die IoT-Themen. Ich habe mich dann irgendwann in die KI-Richtung weiterentwickelt und bin ganz froh, dass ich in dem Bereich gelandet bin, aber trotzdem noch die Maschinenbauthemen bzw. die IoT-Themen weiterhin behandeln darf. Dementsprechend werde ich in die Richtung immer wieder ganz gerne eingesetzt.

Es ist immer wieder wichtig, gerade bei Daten – meistens handelt es sich um Maschinengerätedaten – zu verstehen, was die vorgelagerten und nachgelagerten Prozesse sind und wie alles zusammenhängt. Andreas, wie sieht es bei dir aus? Heute bist du für die Firma blue-zone unterwegs, die auch Partner von All for One ist. Könntest du uns ein wenig über die Konstellation erzählen und vor allem, welche Rolle blue-zone in der Digitalisierung spielt, insbesondere wenn ihr in Projekten zusammenarbeitet, vielleicht sogar mit Jakob. Könntest du uns etwas darüber erzählen, wie alles zusammenhängt?

Andreas

Als blue-zone sind wir Partner von All for One und spezialisieren uns auf die Entwicklung von Embedded Software, also genau dort, wo es um die Anbindung von Sensordaten und die Steuerung von Daten geht. Mein persönlicher Hintergrund liegt in der Embedded Software Entwicklung, also in den Bereichen Steuerungen und Sensorik, und im Kontext des anhaltenden Hypes um die Cloud auch in der Connectivity und Cloud-Anbindung. Der nächste logische Schritt, und das ist der Grund für unser heutiges Gespräch, ist der Zusammenhang von KI-Modellen mit diesen Daten. All for One als SAP-Systemhaus hat natürlich einen besonderen Fokus auf Prozesse und deren Digitalisierung. Wir suchen gemeinsam mit All for One nach Use Cases und Umsetzungen, um Unternehmen bei der Digitalisierung zu unterstützen – von der Maschine bis hin zum ERP und den weiterführenden Serviceprozessen.

Habe ich es richtig verstanden, dass ihr die Daten, sagen wir aus dem Feld, abgreift? Unabhängig von der Art der Datenpunkte bindet ihr, also blue-zone, beispielsweise die Sensordaten an. Anschließend analysiert ihr, avantum, diese Daten, baut komplexe Modelle auf und unterstützt mit Beratung sowie Man- und Womanpower. Und zum Schluss integriert ihr die Daten in ERP-Systeme, wobei, wenn All for One SAP-Partner ist, dies wahrscheinlich priorisiert wird, damit die Prozesse vollständig durchlaufen können. Ist das so das Gesamtpaket, kann man das so verstehen?

Andreas

Genau, perfekt zusammengefasst, Madeleine. Es geht wirklich darum, diese Prozesse am Ende des Tages zu digitalisieren und zu automatisieren, um die tatsächlichen Mehrwerte und Vorteile daraus zu erzielen.

Jetzt habe ich es ja gerade schon am Anfang angesprochen, Andreas, ihr arbeitet unter anderem mit Frauscher. Wie gesagt, das war jetzt der Hinweis auf die Folge 57, wo euer Kunde ja schon mal gesprochen hat. Ihr habt ganz verschiedene Kunden und auch verschiedene Firmen. Mit wem arbeitet ihr da? Habt ihr da spezielle Branchen? Das ist ja wahrscheinlich nicht nur Schienenverkehr. Was macht ihr da genau mit welchen Kunden?

Andreas

Allgemein gesprochen sind es vor allem Unternehmen aus dem Industrieumfeld, zu denen Maschinen- und Heizungsbauer zählen. Konkret kann ich beispielsweise Frauscher erwähnen, über die wir bereits einen Podcast gemacht haben, oder Unternehmen wie GEBHARDT Intralogistics, die mit ihrer Galileo IoT-Plattform für Intralogistik ein umfassendes Health Management Dashboard bieten, das den Einstieg in KI-Themen ermöglicht.

Ich werde für unsere Zuhörer an dieser Stelle das einmal kurz in den Shownotes verlinken. Einfach mal reinschauen, es sind wirklich spannende Projekte, sowohl mit Frauscher als auch mit GEBHARDT. Jakob, wie sieht es bei euch aus? Mit welchen Kunden arbeitet ihr heute?

Jakob

Bei uns ist die Kundenschaft sehr unterschiedlich. All for One ist ja vor allem im Mittelstand stark vertreten, aber bei avantum consult sind wir nicht darauf beschränkt. Wir bedienen alle Branchen und Unternehmensgrößen. Im Mittelstand wird das Thema IoT zwar häufiger an uns herangetragen, aber es gibt keine direkte Einschränkung. Ein Projekt, das wir kürzlich durchgeführt haben, war mit Warema, wo wir Instandhaltungsaufträge ausgewertet und kategorisiert haben, um die Instandhaltungsprozesse zu verbessern – ein sehr spannendes Projekt.

Ich spreche jetzt im Podcast vor allem immer über die Praxis. Was mich besonders interessieren würde, wären vor allem die Use Cases dahinter, die ihr mit den Kunden umsetzt. Jakob, hast du mal so ein paar Beispiele, anhand dessen man versteht, was das für Projekte sind?

Jakob

Ja, auf jeden Fall. Ich habe euch zwei verschiedene Beispiele mitgebracht. Das eine ist eine Schmiedemaschine und das andere sind Schwerlasttransporter. Ich will so ein bisschen genauer darauf eingehen, was wir da insgesamt gemacht haben. Bei der Schmiedemaschine hat das Unternehmen seine Produktion automatisiert bzw. verbessert, damit die Prozesse so automatisch wie möglich ablaufen. Sie haben eine neue Maschine angeschafft, die noch Anlaufschwierigkeiten hatte. Die Maschine arbeitet mit Programmcodes, die parametrisiert werden müssen, um verschiedene Teile automatisiert zu schmieden. Oft stellt man erst im Nachhinein fest, dass eine Einstellung nicht optimal war und dadurch Ausschussteile produziert wurden. Dies ist natürlich eine Verschwendung, die sie reduzieren möchten. Sie wollen diese Programmcodes analysieren und genau verstehen, was dahintersteckt, um letztendlich Zeit und Geld zu sparen und ihren Prozess insgesamt besser zu verstehen. Es ist ein sehr spannendes Projekt.

Da geht’s quasi um die Einstellung der Prozessparameter, also die Analyse von den Programmcodes, die wahrscheinlich an der Maschine selbst mal eingestellt, aber nie hinterfragt wurden. Kann man das so sagen?

Jakob

Ganz genau. Diese Maschine ist mit Sensortechnik ausgestattet und wird im laufenden Prozess upgedatet. Dadurch lassen sich aus früheren Durchläufen mit verschiedenen Prozessparametern wichtige Informationen extrahieren. Man kann erkennen, welche Erkenntnisse für zukünftige Durchläufe nutzbar sind und was sie letztlich bedeuten. Vielleicht erhalte ich, bevor ich das Programm erstelle, einen Hinweis, dass ein bestimmter Parameter zu einem Fehler führen könnte und ich ihn um 10% reduzieren sollte. So kann ich potenzielle Probleme beheben, bevor etwas Ernsthaftes passiert.

Ein wirklich gutes Beispiel. Ich hätte dazu noch ein paar Fragen. Aber du hattest eben noch ein zweites Beispiel erwähnt, oder?

Jakob

Ja, das zweite Beispiel bezieht sich auf Schwerlasttransporter, ein dynamischeres Szenario als bei der statischen Schmiedemaschine. Diese Transporter sind mit Sensortechnik ausgestattet und die IoT-Datenbindung ist bei dieser Firma schon sehr fortgeschritten. Die Daten werden schon in einer IoT-Cloud abgespeichert, werden dort hingeschickt. Von diesen Schwerlasttransporter gibt es weltweit enorm viele und diese Daten werden alle bereits abgegriffen. Der Kunde überlegt nun, welche neuen Geschäftsmodelle möglich sind und wie die Kundenerfahrung weiter verbessert werden kann. Wir unterstützen dabei, Analysen dieser Fahrzeuge hinsichtlich verschiedener Ausfallparameter durchzuführen. Zum Beispiel könnte man vorhersagen, ob eine Feder im Getriebe bald ausfallen wird. Das ist besonders wichtig, da Schwerlasttransporter oft gemietet und weltweit versendet werden. Fällt ein Transporter nach dem Verschiffen aus, wäre das ein enormer Zeitaufwand und der Worst Case für ein Projekt. Es ist also entscheidend, möglichst frühzeitig zu wissen, ob und wann etwas schiefgehen könnte.

Wir haben also einerseits ein Projekt, das sich mit dem Shopfloor und der Anbindung von Schmiedemaschinen befasst und andererseits ein sehr spannendes Projekt, das neue Geschäftsmodelle entwickelt, bei dem Schwerlasttransporter vermietet und andere Stakeholder involviert sind. Das sind wirklich tolle Beispiele. Um noch eine Einordnung vorzunehmen, bevor wir tiefer in die Projekte einsteigen: Habt ihr ein Gefühl dafür, wie viele Kunden aktuell KI-Algorithmen basierend auf IoT-Daten verwenden? Im Podcast spreche ich häufig über die Anbindung von Daten, die dann in der Cloud verarbeitet werden. Aber wie groß ist der Anteil von KI? Gibt es dazu ein Gefühl oder vielleicht sogar Trends, wer in der Industrie diese Technologien mehr und wer sie weniger nutzt?

Jakob

Ja, das Thema ist wirklich spannend. Wir sind oft auf Messen vertreten und sprechen mit vielen Unternehmen. Fast jedes spricht heutzutage von KI und von laufenden Projekten. Doch realistisch betrachtet, setzen die wenigsten Firmen KI aktiv in der Produktion ein. Einige haben zwar Leuchtturmprojekte initiiert, aber viele erkennen schnell, dass ihre Daten noch nicht passen und sind demnach noch nicht so weit fortgeschritten. Manchmal kämpfen sie noch mit der Datenanbindung, was dann für blue-zone relevant wäre. Aber es nimmt zu, aus dem Mittelstand gesprochen. Größere Unternehmen haben manchmal schon eigene KI-Teams, die sich ausschließlich damit befassen – so ein Data Science Team mit etwa zehn Personen, die sich über die komplette Produktion damit beschäftigen. Generell würde ich sagen, im Maschinenbau und im industriellen Bereich sind schon viele Daten angebunden, und es wird in Zukunft enorm wichtig sein. Die Leute wissen, dass sie es angehen müssen, und sie werden es auch tun.

Andreas

Ich möchte das noch ergänzen, denn gerade im Consumer-Bereich ist KI ein riesiger Begriff, und KI ist nicht immer gleich KI, man spricht oft bei einfachen Algorithmen schon von KI. Es ist wichtig, für ein konkretes Problem eine Lösung zu finden, und das kann auch eine einfache Schwellwerterkennung sein. Es muss nicht immer ein großes Machine Learning Modell sein, um Ergebnisse zu erzielen.

[13:15] Herausforderungen, Potenziale und Status quo – So sieht der Use Case in der Praxis aus

Am Ende ist es ja auch immer so ein bisschen der Business Case. Also wo kann ich am Ende Zeit sparen oder vielleicht sogar neue Gewinne erzielen? Das Beispiel mit den Schwerlasttransportern zielt genau darauf ab. Es wäre interessant, mehr über den Business Case zu erfahren. Jakob, du hast bereits angesprochen, worum es in den Cases geht. Aber was verliert der Kunde aktuell an Zeit und Geld?

Jakob

Ich beginne gerne mit der Schmiedemaschine. Die Herausforderungen liegen auf der Hand: Es geht im Wesentlichen darum, die Menge der Ausschussteile zu reduzieren und somit Materialverschwendung zu vermeiden. Das verbessert die Marge des Kunden. Durch die Verringerung der Ausschussteile können auch die Lieferzeiten für die Endabnehmer verkürzt werden, weil weniger fehlerhafte Teile die Qualitätssicherung passieren und an Kunden ausgeliefert werden. Am Ende ist der Kunde zufriedener. Ein weiterer Vorteil ist, dass die Kunden ihre eigenen Prozesse besser verstehen. Wenn man beginnt, die vorhandenen Daten nicht nur zu speichern und eventuell zu visualisieren, sondern auch zu analysieren, um zu erkennen, welche Parameter relevant sind und beeinflusst werden können – etwa um Prozesszeiten zu optimieren oder Ausfallraten zu reduzieren –, dann ist bereits viel gewonnen. Und das ist vermutlich sogar der wichtigste Aspekt: dieses tiefere Verständnis für die eigenen Prozesse zu entwickeln.

Mir ist gerade ein Punkt eingefallen, weil ich eine Folge mit der Firma Saint-Gobain gemacht habe. Der Ansprechpartner dort, Markus, könnte für euch interessant sein. Ich kann euch im Nachgang vernetzen, denn sie haben genau diesen Case: Es geht um Potenziale in der Parametrisierung ihrer Einstellungen. Ein weiterer wichtiger Punkt ist es die Prozesse zu kennen, das heißt, man muss das ja auch erst mal überhaupt alles abbilden, was man bislang in der Vergangenheit eingestellt hat, was ein riesiger Aufwand ist.

Jakob

Ja, das ist eigentlich ein ganz wichtiger Punkt. Viele unserer Kunden möchten Predictive Maintenance umsetzen, was ja irgendwie als der heilige Gral mit IoT-Daten gilt. Doch die meisten Kunden verstehen noch nicht, dass die Schritte davor fast noch wichtiger sind. Das umfasst das Condition Monitoring, das Anzeigen von IoT-Daten und den Aufbau von Verständnis. Dies ist essenziell für den Erfolg solcher Prozesse.

Bezogen auf das Beispiel mit den Schwerlasttransportern: Hier geht es darum, dass diese Geräte oder großen Anlagen vermietet werden. Es geht also nicht nur um Kosteneinsparungen in den Prozessen, sondern auch darum, Kunden durch die Nutzung von Daten enger an das Unternehmen zu binden und neue Geschäftsmodelle zu entwickeln. Wie sieht da der Business-Case aus?

Jakob

Ja, Schwerlasttransporter kauft man nicht einfach so monatlich. Daher ist es enorm wichtig, den Kunden langfristig zu binden, sodass er dauerhaft zufrieden ist. Qualität spielt dabei eine große Rolle; die Kunden sollten einen hohen Qualitätsanspruch haben, da sie sonst langfristig vom Markt abgehängt werden könnten. Ein weiterer wichtiger Aspekt für die Zukunft ist die Nachweispflicht von Daten, beispielsweise in Bezug auf Unfälle oder Big Data, wird Business Cases weiterhin beeinflussen. Es ist daher entscheidend, dass Kunden frühzeitig damit beginnen, ihre Daten sorgfältig zu erfassen und zu versionieren.

Ganz wichtiger Punkt. Da gibt es ja auch andere Treiber, nicht nur vom Gesetzgeber, sondern auch Unfälle oder Nachweispflichten, die dort erfüllt werden müssen. Das ist eine tolle Möglichkeit dort mit Daten zu arbeiten. Andreas, bei euch, da ihr auch mit verschiedenen Kunden arbeitet, siehst du es ähnlich oder gibt es da noch Ergänzungen?

Andreas

Die von Jakob erwähnten Punkte sind absolut relevant. Was wir bei unseren Kunden feststellen, sind die Herausforderungen im Servicebereich. Jakob erwähnte bereits den „heiligen Gral“ des Predictive Maintenance, der als ultimatives Ziel gesehen werden kann. Es gibt jedoch bereits vorab zahlreiche Verbesserungsmöglichkeiten, wie die Optimierung des Serviceprozesses, um die Verfügbarkeit von Ersatzteilen zu verbessern. Dies erfordert nicht unbedingt ein prädiktives Szenario; es genügt, schnell auf Kundendaten zuzugreifen, ohne eigene Servicetechniker zur Maschine schicken zu müssen. Diese Schritte benötigen noch keine KI, sind aber sehr relevant und hängen auch mit dem Fachkräftemangel zusammen. Generell nutzen unsere Kunden zunehmend das Potenzial der Daten aus ihren Steuerungsprozessen, um neue Geschäftsmodelle zu entwickeln, die auf Daten basieren.

Bei den beiden Beispielen – der Anbindung von Schmiedemaschinen und Schwerlasttransport – geht es um bestimmte Daten. Beim ersten Beispiel haben wir schon die Ausschussraten und die zugehörigen Sensoren diskutiert. Könnt ihr beim Thema Schwerlasttransport konkrete Beispiele für erforderliche Daten nennen? Welche Informationen sind hier für Projekte relevant und müssen erhoben werden?

Jakob

Für die Auswertung von IoT-Daten sind Sensorwerte natürlich sehr wichtig. Zusätzlich sind die Informationen aus den Steuereinheiten entscheidend. Diese Daten können unterschiedliche Herkünfte haben und müssen verwendet werden. Sie sind besonders relevant für Bereiche wie Anomalieerkennung oder Predictive Maintenance. Es ist wichtig, das Ganze in den richtigen Kontext zu setzen. Businessdaten sind daher mindestens genauso wichtig und tragen zum übergreifenden Bild bei. Dabei geht es um Informationen zum einzelnen Fahrzeug, wie Standort und Mietdauer.

Bei KI geht es letztendlich darum, genug Daten in guter Qualität zu haben. Lasst uns darüber sprechen, wie sich das auf die Prozesse eurer Kunden auswirkt. Zuerst müssen die Daten verfügbar sein, das heißt, die Datenanbindung ist essentiell. Dann müssen sie wahrscheinlich in ausreichender Menge und Qualität vorliegen, um Algorithmen effizient einsetzen zu können. Wie beeinflusst das eure Kunden, Jakob?

Jakob

Ja, das ist ein wichtiger Punkt. Also, wie du gesagt hast, zuerst braucht man irgendwelche Daten. Zu meinen Kunden, die ihre Prozesse noch nicht verstehen, sage ich: Fangt erst mal an, Daten zu sammeln. Denn wie du meintest, für KI-Algorithmen oder auch für statistische Modelle braucht man viele Daten. Was man aber nicht vergessen darf: Schlechte Daten bringen nicht viel. Deshalb sollte man möglichst bald analysieren, welche Daten man wirklich braucht, welche eine hohe Relevanz haben und welche man eventuell nicht braucht. Denn im IoT-Bereich ist irgendwann die Datenmenge ein Thema, und nicht alle Daten sind am Ende sinnvoll. Aber Andreas, du hattest dazu noch ein paar Gedanken, die wir im Vorfeld besprochen hatten.

Andreas

Genau, wie du sagst, die Qualität ist entscheidend. Man muss sich überlegen, welche Sensorik man einsetzt und welche Auflösung der Daten nötig ist. Idealerweise orientiert man sich an einem Pain von dem speziellen Use Case, den man hat, sammelt gezielt die Informationen, die zur Lösung benötigt werden. Es ist nicht zielführend, unstrukturiert Daten zu sammeln und erst später zu überlegen, was man damit anfangen könnte. Es ist effektiver, sich anzuschauen, welche Informationen aktuell verfügbar und für den Use-Case relevant sind, und diese zu sammeln. Danach sollte man relativ schnell eine Datenanalyse durchführen, um erste Ergebnisse zu erzielen. Denn wie Jakob sagte: Man muss irgendwo anfangen, aber nicht nur mit dem Sammeln von Daten, sondern auch gleich mit deren Analyse. So nähert man sich schrittweise dem Ziel und ein strukturierter Ansatz ist dabei sehr wichtig.

[23:48] Lösungen, Angebote und Services – Ein Blick auf die eingesetzten Technologien

Wir haben viel über die Herausforderungen und den konkreten Case gelernt. Jetzt zum Schluss würde ich gerne kurz erörtern, wie man das umsetzt. Welche Technologien werden eingesetzt? Wie sieht ein Lösungsweg aus? Jakob, als Experte für Data Warehouse, wo und wie speichere ich Daten und setze KI-Algorithmen ein? Wie sollte die IT-Aufstellung und Architektur aussehen, um solche Use Cases umsetzen zu können?

Jakob

In den letzten Jahren hat sich gezeigt, dass das Thema Cloud immer wichtiger wird. Viele Unternehmen nutzen mittlerweile eine Cloud, die im IoT-Bereich große Vorteile bieten. Verschiedene vorgefertigte Services erleichtern die Datenkonnektivität. Updates für Maschinen können automatisiert eingespielt werden. Am wichtigsten ist meiner Meinung nach, dass Unternehmen sich cloudbasiert aufstellen sollten. Technologisch gesehen sollte alles möglichst automatisiert abgebildet werden. Im Hinblick auf DevOps oder ML-Ops im KI-Bereich und Container-Technologien sollten im IoT-Bereich nicht vernachlässigt werden.

lso, ich kenne das DevOps-Prinzip. Ich habe einen Developer und einen Operator, und kann Dinge in der IT bereitstellen. Was bedeutet MLOps bzw. Machine Learning Operations genau?

Jakob

Genau, MLOps leitet sich eindeutig von DevOps ab, also Development Operations. Grundsätzlich bedeutet DevOps, dass man einen kompletten iterativen Prozess hat, der möglichst automatisiert abläuft und in Lebenszyklen organisiert ist. Das Gleiche gilt auch für MLOps. Hier beginnt man mit der Datenqualität, dann folgt das Modelltraining, das automatisierte Deployment, das automatisierte Monitoring, das automatisierte Retraining und das alles im Zyklus. Das ist besonders wichtig bei Machine Learning Modellen besonders jetzt, wenn wir im Beispiel von IoT-Daten sind. Die Maschinen verändern sich einfach über Zeiten hinweg. Das heißt, ich kann hier keine zwei oder drei Jahre hintereinander das selbe KI-Modell verwenden, weil sich Daten einfach auch verändern.

Sprichst du gerade eher über den Mittelstand oder über große Unternehmen? Denn es klingt so, als hätten mittelständische Betriebe das aktuell nicht in ihrer IT-Infrastruktur.

Jakob

Also, ich kenne eigentlich nur wenige Unternehmen, die kein DevOps in irgendeiner Form verfolgen. Sie versuchen zumindest, alles zu automatisieren. Es gibt auch Technologien und Tools, die dabei sehr unterstützen. Sicherlich haben große Unternehmen mehr Erfahrung damit gesammelt, aber für kleine Unternehmen ist es noch wichtiger, das sauber umzusetzen. Denn im Mittelstand sind oft nicht so viele Leute im Bereich KI tätig. Man möchte auch nicht immer einen Dienstleister oder Berater engagieren, der sich genau darum kümmert, sondern die Automatisierung sollte reibungslos funktionieren. Deswegen sollte es auch größer werden.

 

Andreas, nochmal die Frage an dich. Ihr arbeitet vor allem mit der Datenanbindung als Fokus, aber dennoch natürlich auch mit der Partnerschaft mit der All for One. Wie sollten Betriebe aus deiner Sicht vorgehen, um diese Prinzipien anzuwenden und wirklich KI-Modelle für den industriellen Einsatz zu optimieren? Hast du da so ein paar Best Practices aus deiner Praxis?

Andreas

Also, das erste, es beginnt eigentlich immer mit dem Menschen, sage ich jetzt mal. Man braucht diese klare Verantwortung bei einer Person, die sich auch um das Thema kümmert. Wie du vorhin schon angesprochen hast, das Thema DevOps, das eigentlich inzwischen ein geläufiger Begriff ist und bei immer mehr Firmen Einzug findet. MLOps kann man sich ja mehr oder weniger auch als Erweiterung zu DevOps vorstellen. Es ist klar, gerade wenn es um Software geht, da habe ich Versionen meiner Software, die müssen sinnvoll abgelegt sein, ich brauche meine Releases, meine Release Notes und genau das gilt natürlich auch im MLOps-Bereich. Ich muss meine Modelle versionieren, das heißt, es geht konkret um eine Person, die sich dem Thema annimmt und die klare Verantwortung dafür hat. Sie geht strukturiert vor und behandelt alle ML-Themen genauso wie Source-Code, wo ich Releases habe, die ich weiterentwickle.

Ich möchte nicht zu sehr auf die Technologie eingehen, aber ich denke, es ist für die Hörerschaft sehr spannend, auch ein bisschen mehr über Datenmodelle zu verstehen. Ich würde gerne etwas über den Lösungsweg sprechen, den ihr bei avantum consult gemeinsam mit blue-zone und der All for One verfolgt, um solche Datenmodelle in die IT-Architektur zu implementieren. Kannst du sagen, was dabei wichtig ist in der Umsetzung? Was sollte man beachten, um sie wirklich nutzbar zu machen für die Use Cases, wie wir sie angesprochen hatten?

Jakob

Genau, wir haben bereits darüber gesprochen, dass Businessdaten enorm wichtig sind, aber auch die IoT-Daten sind von großer Bedeutung und dürfen auf keinen Fall vernachlässigt werden. Daher ist es enorm wichtig, für die Businessdaten ein sauberes Data Warehouse aufzubauen mit einem Data Mart, in dem zu jedem Zeitpunkt Daten bereitgestellt werden, die im Unternehmenskontext stehen. Gleichzeitig sind aber auch die IoT-Daten wichtig. Die meisten wissen, dass IoT-Daten sehr anders sind und in einer viel höheren Frequenz anfallen als Business-Daten. Daher muss man hier darauf achten, die beiden Welten gut verheiratet. Die IoT-Daten kommen kontinuierlich als Streaming-Daten herein. Man kann diese nicht so häufig aktualisieren wie die Business-Daten, da dies zu hohe Kosten und eine zu große Last bedeuten würde. Daher ist die Kombination aus beiden enorm wichtig. Die KI-Modelle liegen zwischen diesen beiden Welten und müssen das Ganze integrieren und am Ende wieder zusammenführen, damit es in einem Reporting sauber dargestellt werden kann.

Verstehe. Gut, dass du das Thema Streaming nochmal angesprochen hast. Wir wollen das Thema heute nicht vertiefen, aber hört gerne mal in Folge 74 rein. Da ist die Firma Confluent mit Kai Waehner vertreten und er erzählt rund um das Thema Streaming. Das ist ein ganz anderes Kapitel, aber wahnsinnig wichtig zu betrachten, und vielleicht können wir sogar noch eine Folge dazu machen. Vielen Dank schon mal für diese Insights zum Lösungsweg. Vielleicht die letzte Frage für heute: Hat man wirklich immer KI im Einsatz, also als künstliche Intelligenz, oder ist es vielleicht auch einfach nur ein statistisches Modell? Könnt ihr anhand des Beispiels der Schmiedemaschine erklären, wie ihr entscheidet, ob man jetzt KI wirklich als Algorithmik und so weiter nutzt, oder ob man auch einfach nur auf statistische Modelle setzt? Denn es ist ja schon teilweise eine Königsdisziplin, diesen nächsten Schritt zu gehen, oder?

Andreas

Genau, wie du sagst. Also die einfachen statistischen Modelle werden natürlich eingesetzt, wo ich mich im Problemraum bewege, wo sich der Mensch noch vorstellen kann, wie sich das lösen lässt oder das zum Beispiel auch mit dem Know-how einer Fachkraft gelöst werden kann. Man muss immer zuerst den Problemraum analysieren und zweitens schauen, ob man die benötigten Daten und Sensorik zur Verfügung hat. Typischerweise kann man bei statistischen Modellen mit relativ wenig Sensorik und Daten zu guten Ergebnissen kommen, wenn sich das Problem eben auch beschreiben lässt. In die KI-Modelle muss man dann gehen, wenn die Problemräume komplexer werden, denn da sieht es ganz anders aus. Sobald sich der Mensch nicht mehr vorstellen kann, was da geht, kann KI besonders helfen. Aber das übergebe ich vielleicht an Jakob.

Jakob

Ja, das hast du definitiv gut dargestellt. Man muss nicht jedes Problem mit einem neuronalen Netz oder einer komplizierten KI lösen. Das gilt auch für große Sprachmodelle. Nicht jedes Problem lässt sich heutzutage durch ChatGPT und Co. lösen. Manchmal reicht es, ganz einfache statistische Modelle zu verwenden, die in der Regel sehr performant sind, da haben die meisten sehr viele Erfahrungen drin. Auf der einen Seite bedeutet das, dass man in der Regel eine geringere Datenmenge benötigt. Sie darf nicht zu gering sein, aber man kommt schneller zum Ziel. Das bedeutet auch, dass die Entwicklungszyklen einfacher sind, weil es nicht so kompliziert ist. Statistische Modelle haben oft auch den Vorteil, dass sie einfacher zu erklären sind. Man kann beispielsweise bei der Anomalieerkennung oder der vorausschauenden Wartung genau nachvollziehen, an welchem Teil der Maschine etwas ausfällt oder welches Teil bald ausfallen wird. Diese Erklärbarkeit ist bei neuronalen Netzen auch möglich, aber es ist wieder etwas komplizierter. Bei statistischen Modellen ist das einfacher umzusetzen.

Schön, dass du den Kreis jetzt auch nochmal zum Anfang geschlossen hast, denn eure Kunden haben natürlich großes Interesse daran, beispielsweise im Fall der Schmiedemaschine zu sehen, wie sie ihre Ausschussraten verringern können und welche Parameter sie hinterfragen sollten. Man kann diese Modelle entsprechend anwenden, um am Ende Ergebnisse zu erzielen, die einen Business-Impact haben. Oder im Beispiel des Schwerlasttransporter, um zu sehen, wo mögliche Ausfälle von Federn im Getriebe auftreten und wie häufig das passiert. Ein großer Fehler wäre es, ein Gerät auszuliefern und dann Ausfälle zu haben, die man vorhersehen könnte. Deshalb sind solche Modelle wahnsinnig wertvoll und ein großer Hebel. Damit komme ich zur letzten Frage, Jakob, was sind denn zukünftige Entwicklungen, die du im Bereich KI auf Basis von IoT-Daten am Markt siehst? Und welche Bedeutung hat das dann in der Zusammenarbeit mit Andreas und All for One gemeinsam mit der blue-zone für euch? Kannst du darauf noch eingehen?

Jakob

Sehr gerne. Wie ich schon angesprochen habe, einer der größten Trends und Treiber ist Explainable AI, also die Erklärbarkeit von Modellen. Auf der anderen Seite ist das Thema IoT-Daten im Allgemeinen ein enorm großer Punkt, und die Möglichkeiten sind noch lange nicht ausgeschöpft. IoT-Szenarien werden immer größer und wichtiger. In diesem Kontext wird auch das Thema Sprachmodelle, insbesondere Large Language Models, immer wichtiger im IoT-Bereich, beispielsweise für die Auswertung von Instandhaltungsinformationen, die man damit einfach verheiraten kann. Du hast bereits einen Partner genannt, der sich darauf spezialisiert hat.

Genau, die Firma elunic. An dieser Stelle muss ich kurz sagen: Abonniert den Podcast, falls ihr es noch nicht gemacht habt. In der nächsten Folge kommt dazu noch mehr Spannendes heraus. Genau, da könnt ihr nochmal im Detail reinhören. Aber Jakob, ich wollte dich nicht unterbrechen.

Jakob

Gar kein Problem, ich werde mir die Folge auf jeden Fall auch anhören. Grundsätzlich sind das auch schon die relevantesten Bereiche. Was vielleicht auch noch wichtig ist, ist die Thematik der Responsible AI. Das bedeutet, dass Modelle so entwickelt werden müssen, dass sie keinen Bereich oder Sensor benachteiligen, und dass sie entsprechend robust sind.

Also das ist wirklich ein Thema, dass man Sensoren nicht benachteiligen sollte oder wie muss man das verstehen?

Jakob

Responsible AI ist nicht einfach zu definieren. Features in einzelnen Modellen haben unterschiedliche Einflüsse. Man muss darauf achten, dass nicht ein Sensor zu häufig Informationen liefert und dadurch eine zu große Gewichtung erhält. Es ist wichtig, einen ausgeglichenen Datensatz zu haben. Das betrifft nicht nur die Responsibilty im menschlichen Kontext, sondern auch die Tatsache, dass Menschen weiterhin ein zentraler Bestandteil von Produktionsprozessen sind und bleiben müssen, obwohl KI-Modelle Prozesse automatisieren können.

Ja, das klingt für mich nach einer Folge, die wir nochmal als Follow-up machen können, besonders zu den Themen Explainable AI und Responsible AI. Es gibt viele Themen, die wir hier nochmal vertiefen können. An dieser Stelle möchte ich euch beiden erstmal herzlich danken für eure Zeit heute. Ich habe eure Kontakte in meinen Show Notes hinterlegt, also wenn ihr mit Jakob oder Andreas ins Gespräch kommen wollt, findet ihr sie auf LinkedIn oder auch auf unserer Plattform iotusecase.com. Nochmals herzlichen Dank, ich fand es großartig, dass ihr konkrete Kundenbeispiele mitgebracht habt. Dadurch konnte man wunderbar verstehen, wer wo unterwegs ist, besonders in der Zusammenarbeit mit blue-zone bei der Datenaufnahme und avantum mit der Datenanalyse, und dann die Integration in die ERP-Datenwelt mit eurem Partner All for One, der heute leider nicht vertreten ist. Andreas, du hast das gut stellvertretend gemacht. Nochmals herzlichen Dank, dass ihr dabei wart. Das letzte Wort überlasse ich euch.

Andreas

Ja, dann sage ich auf meiner Seite Danke. Mir freut es auch, dass ich heute wieder dabei sein konnte. Wir würden uns wirklich freuen, wenn wir gemeinsam mit der Hörerschaft in Kontakt treten könnten und gemeinsam erste Schritte Richtung AI oder weitere Themen gehen könnten. Nochmals herzlichen Dank und bis zum nächsten Mal.

Jakob

Ich habe dazu nicht viel mehr beizufügen. Es hat mich sehr gefreut, Teil des Ganzen zu sein, und ich hoffe, dass wir uns vernetzen und weiterhin viel miteinander zu tun haben werden.

Jawohl, herzlichen Dank und noch eine schöne Woche für euch. Macht’s gut. Tschüss!

Jakob

Tschüss!

Andreas

Tschüss!

 

Für Rückfragen stehe ich Ihnen gern zur Verfügung.

Questions? Contact Madeleine Mickeleit

Ing. Madeleine Mickeleit

Host & Geschäftsführerin
IoT Use Case Podcast