Do you want to see our content in English?

x
x

Jenseits von Predictive: IoT-Architekturen mit SoftServe

““

Sie sehen gerade einen Platzhalterinhalt von Spotify Player. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf den Button unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Weitere Informationen
IoT Use Case Podcast auf Spotify anhören
IoT Use Case Podcast auf Spotify anhören
IoT Use Case Podcast auf anderen Plattformen anhören

IoT Use Case Podcast episode 163 - Softserve + OptoTech Hannover Messe Special

Spezialfolge live von der Hannover Messe: Gemeinsam mit Scott Kemp von SoftServe werfen wir einen Blick auf reale Industrieprojekte – darunter Use Cases von OptoTech Optikmaschinen GmbH (Teil der SCHUNK Group), Continental und NVIDIA. Es geht um smarte Dateninfrastrukturen, Predictive Maintenance und den praktischen Einsatz von KI im Shopfloor.

Podcast Zusammenfassung

Wie gelingt es, smarte Instandhaltung, KI und globale IoT-Infrastrukturen in der Praxis zu verbinden – trotz Fachkräftemangel und komplexer Maschinenlandschaften? Diese Fragen beantwortet Scott Kemp von SoftServe im Gespräch mit Ing. Madeleine Mickeleit – mit Einblicken in Projekte mit Schunk, Continental und NVIDIA.

SoftServe zeigt, wie skalierbare IoT-Backbones und KI-Anwendungen echten Mehrwert schaffen: etwa mit einem AI-Assistenten zur Reduktion der MTTR und 10 % höherer OEE bei Continental. Gemeinsam mit Schunk wurde ein IoT-Backbone für das gesamte Maschinenportfolio aufgebaut, das Endkunden Wartung per Assistenzfunktion ermöglicht.

Besonders anschaulich wird das im Praxisbeispiel von OptoTech: Produktverantwortlicher Vineeth Vellappatt gibt Einblick in den AI-gestützten Schleifprozess an der SM80-Maschine – inklusive Fehlererkennung, Parameterauswertung und konkreter Handlungsempfehlung.

Technologisch kombiniert SoftServe strukturierte Sensordaten mit unstrukturiertem Wissen (z. B. SOPs), eingebettet in ein RAG-Modell zur schnellen Informationsbereitstellung – umgesetzt auf Microsoft Azure, NVIDIA Omniverse, AWS und weiteren Plattformen. Standards wie OPC UA und Unified Namespace bilden die Grundlage für Skalierung.

Im Fokus: Wissensverlust kompensieren, neue Mitarbeitende befähigen, Services monetarisieren – und AI vom Buzzword zur produktiven Lösung machen. SoftServe setzt dabei auf praxisnahe Methoden wie „Double Diamond Thinking“ und Proofs of Technology statt bloßer POCs. Ein Impuls von Onuora Ogbukagu (Deutsche Messe AG) leitet die Spezialfolge ein.

Podcast Interview

Hallo zusammen, wir melden uns live von der Hannover Messe. In der heutigen Episode geht es um echte GenAI-Anwendungsfälle auf dem industriellen Shopfloor.

Zu Gast ist Scott Kemp von SoftServe – einem globalen Anbieter digitaler Lösungen für komplexe industrielle Herausforderungen.

Wir sprechen über konkrete Projekte mit Schunk, Continental und NVIDIA – und darüber, wie sie mit großen Kunden zusammenarbeiten.

Lasst uns über Buzzwords hinausgehen und Best Practices beleuchten, inklusive technischer Einblicke mit AWS, Microsoft, Google und weiteren Partnern.

Wie immer findet ihr alle Infos auf iotusecase.com.

Onuora Ogbukagu, offizieller Sprecher der Deutschen Messe AG

Genau das macht die Hannover Messe so spannend. Was ihr bei IoT Use Case macht, ist genau das, was man hier auf der Messefläche live erleben kann.

Die großen Digitalisierungsunternehmen sind da – Google, Microsoft – aber auch kleinere, spezialisierte Softwareanbieter.

Und dann natürlich die klassischen Maschinenbauer. Wenn diese Welten zusammenkommen, entsteht die Wettbewerbsfähigkeit der Zukunft.

Dafür steht die Hannover Messe.

Scott, schön, dass du hier bei der Hannover Messe bist. Es ist beeindruckend, live vor Ort zu sein. Wie läuft dein Tag bisher?

Scott

Für mich ist die Hannover Messe so etwas wie das Epizentrum der Fertigungsindustrie. Ich bin jetzt zum dritten Mal hier. Es ist zwar anstrengend, aber die Gespräche machen alles wieder wett.

Was ist dir bisher aufgefallen? Hattest du Zeit, deinen Stand mal zu verlassen und dich ein wenig umzusehen?

Scott

Ja, oft ist man in seiner eigenen Welt gefangen, aber ich habe es geschafft, mich ein wenig umzusehen.

Man sieht die erwarteten Trends – Agentic AI, GenAI – im Grunde genommen das Gleiche.

Aber auch Technologien, die sich über die Jahre weiterentwickelt haben, wie z. B. Computer Vision oder Predictive Maintenance. Einige wirklich spannende Sachen.

Wenn ihr gerade zuhört: Schaut mal auf unserem LinkedIn-Kanal vorbei – wir haben einige Medienbeiträge nach der Messe geteilt. Da seht ihr, was SoftServe macht – aber auch, was andere Partner aus unserem Netzwerk zeigen.

Lass uns vielleicht mit SoftServe starten und darüber sprechen, was ihr auf der Messe vor Ort gezeigt habt.

Ihr arbeitet mit 10.000 globalen Experten, die industrielle Kunden entlang der gesamten Wertschöpfungskette unterstützen. Ihr habt auch vorgefertigte Plug-and-Play-Lösungsvorlagen entwickelt, und einiges mehr.

Darüber sprechen wir gleich noch. Gibt es bestimmte IoT-Projekte, die du für 2024 oder 2025 besonders spannend findest? Vielleicht kannst du etwas aus der Praxis von SoftServe erzählen.

Scott

Klar! Ich bin jetzt seit genau einem Jahr bei SoftServe – mein erster Tag war tatsächlich auf der letztjährigen Hannover Messe.

Für mich ist SoftServe ein verstecktes Juwel im industriellen Bereich. Wenn man sich einmal auf der Website umsieht, entdeckt man wirklich coole und innovative Dinge, die wir branchenübergreifend machen – insbesondere in der Industrie – mit großartigen Kunden.

Letztes Jahr zum Beispiel haben wir eine tolle Lösung vorgestellt, die wir gemeinsam mit NVIDIA und Continental entwickelt haben – ein generativer KI-Assistent für die Industrie.

Ein fantastischer Use Case, bei dem wir die Reparaturzeit reduzieren und die Overall Equipment Effectiveness (OEE) steigern konnten. Ich glaube, es war etwa eine 10 % Verbesserung der OEE – was wirklich stark ist. Und natürlich sind wir glücklich, wenn unsere Kunden glücklich sind.

Sehr schön. Und wie war NVIDIA beteiligt? Über Omniverse?

Scott

Ja – und das ist wieder einer dieser oft übersehenen Aspekte. Wir wurden tatsächlich zwei Jahre in Folge zum NVIDIA Partner des Jahres ausgezeichnet.

Glückwunsch nochmal – richtig stark!

Scott

Danke! Wir haben die neueste Auszeichnung erst letzte Woche auf der GTC erhalten. Das ist wirklich das Ergebnis jahrelanger Investitionen in diese Partnerschaft.

Wir bauen schon seit einigen Jahren Lösungen auf dem NVIDIA-Stack – und jetzt, mit dem aktuellen Hype rund um NVIDIA, zahlt sich diese Investition richtig aus.

Wir tätigen oft solche strategischen, forschungsgetriebenen Investitionen, um herauszufinden, ob sich eine Technologie durchsetzt. Manchmal funktioniert das nicht – aber in diesem Fall hat es sich wirklich bewährt. Bei diesem Projekt sind wir auf den Kunden zugegangen und haben gefragt: Welches Problem wollt ihr lösen? Und dann haben wir rückwärts gedacht, um herauszufinden, welche Technologien dafür hilfreich sein könnten.

So sind wir auf den Einsatz von generativer KI gekommen, um eine Reihe von Herausforderungen auf dem Shopfloor zu lösen. Das war eine sehr spannende Gelegenheit.

Okay, cool. Und auf der Hannover Messe habt ihr diesen spannenden Use Case gemeinsam mit Schunk vorgestellt. Kannst du uns dazu mehr Einblicke geben? Ich bin besonders neugierig, da wir heute den Fokus auf Maschinenbauer legen.

Scott

Ich denke, wir sehen hier beide Seiten der Medaille.

Auf der einen Seite gibt es große Unternehmen, für die es zum Kerngeschäft gehört, ihre eigene Produktion zu betreiben und Maschinen instand zu halten.

Auf der anderen Seite stehen Maschinenbauer, die zusätzliche Umsätze generieren wollen, indem sie ihren Endkunden Services anbieten.

Und genau darin liegt der Unterschied zwischen Continental und Schunk:
Continental konzentriert sich auf die Optimierung der eigenen Produktionslinie, während Schunk überlegt hat, wie sie ihre Kunden unterstützen können.

Wir haben mit Schunk an einem ähnlichen Problem gearbeitet – und mithilfe von KI eine Lösung entwickelt, die es deren Kunden ermöglicht, Wartungsaufgaben an Schunk-Maschinen selbst durchzuführen.

Okay, spannend. Bevor wir ins eigentliche Problem einsteigen – in welchem Bereich von Schunk sind wir hier unterwegs? Das Unternehmen ist ja riesig. Um was für Maschinen geht es?

Scott

Wir arbeiten mit Schunk über das gesamte Portfolio hinweg.

Hier am Messestand zeigen wir eine Maschine von OptoTech.

Was für eine Maschine ist das?

Vineeth Vellappatt, Product Owner bei OptoTech

OptoTech ist auf Maschinen zur optischen Fertigung spezialisiert. Auf der Hannover Messe zeigen wir die SM80 – eine Schleifmaschine, die vollständig in unsere IoT-Plattform integriert ist. Wir demonstrieren KI-gestützte Use Cases wie Parameteranalysen, manuelle Bewertungen, Informationsgewinnung und Fehlererklärungen.

In der optischen Industrie müssen Bediener in der Regel vor Ort sein, um auf Fehler zu reagieren. Gemeinsam mit SoftServe haben wir einen IoT Use Case entwickelt, der Parameter wie Spindeldrehzahl und Overrides sammelt, um die Maschine aus der Ferne zu überwachen.

Am Messestand zeigen wir eine Live-Verbindung zur Maschine in Launsbach. Besucher sehen Echtzeitdaten wie Laufzeit, manuelle Bedienzeit, Stillstandszeiten und detaillierte Fehlerzustände. Mit KI kann man gezielt Fehler abfragen und bekommt direkt eine verständliche Erklärung – inklusive Ursache, Wirkung und Handlungsempfehlung.

Also unterstützt ihr das gesamte Portfolio von Schunk oder nur bestimmte Maschinen?

Scott

Ein großer Teil begann damit, dass wir Schunk beim Aufbau einer IoT-Plattform unterstützt haben. Der CIO von Schunk sagt oft, dass sein Team „die Straße baut“ – und andere, wie Maschinen oder Entwickler, können darauf fahren. Es ist ein bisschen wie ein Android-System für Apps: Man schafft das Fundament, auf dem andere dann innovieren können.

Wir haben mit ihnen gemeinsam eine ganzheitliche IoT-Plattform aufgebaut, die alle Maschinen weltweit vernetzt. Das ist eine wichtige Grundlage, um darauf aufbauend Technologien wie generative KI zu ermöglichen. Die Herausforderung ist groß, denn Schunk hat eine Vielzahl unterschiedlicher Maschinen – mit verschiedenen Produkten, Lebensdauern, Protokollen und Standards. Außerdem wurden andere Unternehmen übernommen, was die Systemintegration zusätzlich erschwert.

Deshalb ist eine einheitliche IoT-Plattform, die global Transparenz über alle Maschinen bietet, ein entscheidender Schritt, bevor man sich an die „spannenden Dinge“ wie KI-Assistenten wagen kann.

Du hast eben schon angefangen, das Problem zu umreißen. Was ist denn konkret der Business Need hier? Welche Probleme werden gelöst?
Könntest du uns einmal durch die Problemstellung von Schunk führen?

Scott

Ja, klar. Wenn wir Continental und Schunk vergleichen, sehen wir viele Gemeinsamkeiten in der Problemstellung – und ehrlich gesagt betrifft das die ganze Industrie.

Was wir bei vielen unserer Kunden beobachten, ist ein massiver Wissensverlust. Die erfahrenen Fachkräfte, die Maschinen in fünf Minuten quasi mit verbundenen Augen warten oder umrüsten konnten, gehen in Rente oder werden von anderen Unternehmen abgeworben.

Die große Frage ist also: Wie können wir jüngere, weniger erfahrene Mitarbeitende befähigen, nicht nur genauso schnell, sondern auf demselben Kompetenzniveau zu arbeiten?

Gleichzeitig werden die Maschinen immer komplexer. Es ist nicht mehr wie früher beim alten Land Rover, wo man ein paar Schrauben löst und alles funktioniert. Heute braucht man bei einem Auto fünf Demontageschritte, um an die Glühbirne zu kommen. Genauso ist es bei Maschinen – mehr Elektronik, mehr Software, mehr Komplexität. Und das macht alles deutlich schwieriger.

Allerdings. Hast du ein konkretes Beispiel, wie Schunk – oder auch ein anderes Unternehmen – das in der Praxis angeht?

Scott

Klar. Ich kann Beispiele von Schunk nennen, aber auch von anderen Kunden, mit denen wir arbeiten. Auch hier bilden die IoT-Daten die Grundlage. Wir kombinieren strukturierte Daten – wie Vibrations-, Temperatur- oder Drucksensoren – mit unstrukturierten Daten, zum Beispiel SOPs oder PDFs.

Wir können auch Informationen aus MES- oder ERP-Systemen integrieren. All diese Daten werden dann in ein generatives KI-Modell eingespeist, genauer gesagt in ein sogenanntes RAG-Modell – Retrieval-Augmented Generation.

Der Mehrwert liegt auf der Hand: Menschen bekommen schneller Zugriff auf die richtigen Informationen.
Richtig spannend wird es, wenn man das mit klassischen KI-Modellen – etwa zur Predictive Maintenance – in einer gemeinsamen Umgebung kombiniert. Dann kann man richtig interessante Fragen stellen, zum Beispiel: Wann wird diese Pumpe wahrscheinlich ausfallen?

Hat man diese Vorhersage, geht man vom prädiktiven in den aktiven Zustand über. Hier kommt wieder generative KI ins Spiel: Man kann fragen: Warum wurde diese Vorhersage getroffen? Die KI zeigt dann zum Beispiel die Vibrationsdaten der letzten zwei Tage und erklärt: Dieses Verhalten hat die Vorhersage ausgelöst. Und die nächste Frage ist dann: Okay, wie behebe ich das Problem?
Dann greift das System auf SOP-Dokumentationen zu – Schritt 1, Schritt 2, Schritt 3 – und führt den Bediener durch den Lösungsprozess.

An dieser Stelle fungiert die generative KI als zentrale Schnittstelle, über die alle Aufgaben nahtlos ausgeführt werden können. Ich finde das extrem spannend.

Mich interessiert, wie präventive Instandhaltung durch einen KI-basierten Algorithmus ersetzt werden kann. In der Praxis gibt es ja häufig diese Standardregeln: „Nach 1.200 Stunden austauschen“ – und das war’s. Aber jetzt verändern wir ja das ganze System, oder?

Scott

Ja, genau. Ich war letztes Jahr auf einer Instandhaltungsveranstaltung in Amsterdam – und es war wirklich spannend zu sehen, wie Expertinnen und Experten das Thema angehen.

Es gibt verschiedene Kategorien: Manche Bauteile lässt man bewusst bis zum Ausfall laufen, weil sie einen geringen Wert haben und nicht kritisch sind – wenn sie kaputtgehen, ist das nicht schlimm.

Andere Komponenten benötigen zwingend präventive Wartung, weil ein Ausfall keine Option ist. Und dann gibt es die hochwertigen, kritischen Assets – hier kommen KI-basierte Algorithmen ins Spiel. Sie helfen dabei, Ausfälle vorherzusagen, und ermöglichen es, proaktiv zu handeln.
Ich spreche oft von drei Phasen: Vorhersagen, Optimieren und Anleiten.

Anstatt ständig nur auf Fehler zu reagieren – was in vielen Betrieben noch der Standard ist – können wir vorab wissen, was passieren wird. So bekommen wir die Kontrolle über die Situation.

Gibt es Best Practices zur Klassifizierung der Daten? Manche Datenpunkte sind ja vielleicht entscheidend für die Vorhersage eines bestimmten Fehlers – andere wiederum nicht.

Habt ihr Erfahrung darin, das zu strukturieren? Also: Wie erkennt man, was ein „kritisches Ereignis“ ist – und was nicht? Denn wie du sagtest, steckt viel Wissen immer noch in den Köpfen der Leute.
Wie operationalisiert man das?

Scott

Gute Frage. Predictive Maintenance ist manchmal fast eine Wissenschaft für sich. Oft greift hier das 80/20-Prinzip: Drei oder vier Datenmerkmale sind meist für den Großteil der Fehlerfälle verantwortlich.

Zum Beispiel weiß man vielleicht, dass bei bestimmten Vibrations- oder Temperaturwerten ein Ausfall in den nächsten ein bis zwei Wochen sehr wahrscheinlich ist – basierend auf historischen Daten aus ein oder zwei Jahren.

Um die Vorhersagen noch genauer zu machen, muss man manchmal kreativ werden. Man muss externe Faktoren mit einbeziehen – etwa, wie eine Anlage in Deutschland im Vergleich zu Brasilien betrieben wird. Umgebungstemperatur und Arbeitsumfeld unterscheiden sich stark, und Maschinen verhalten sich in diesen Kontexten ganz unterschiedlich.
Man kann sich auch MES-Daten ansehen, um zu verstehen, was gerade lief, als ein Fehler aufgetreten ist.

Manchmal entdeckt man Korrelationen an Stellen, an die man nie gedacht hätte.

Es kann überraschende, aber signifikante Einflussfaktoren geben – und hier zeigt KI ihre Stärke: Sie kann weit über menschliche Fähigkeiten hinausgehen, größere Datenmengen analysieren und kritische Muster erkennen, die sonst verborgen geblieben wären.

Ja, das heißt, ihr schaut im Grunde in alle Richtungen.

Scott

Ganz genau. Es ist ziemlich spannend – und wir können diesen Ansatz auf ganz unterschiedliche Assets anwenden, wie zum Beispiel Pumpen, Zentrifugalsysteme usw. Jedes Asset verhält sich auf seine eigene Weise, aber wir können unsere Erkenntnisse „re-templatisieren“ und diese Modelle dann für ähnliche Anlagentypen wiederverwenden.

Viele Mitglieder unserer Community stellen die Frage: Wer bezahlt eigentlich für solche Systeme? Und wie sprecht ihr das bei euren Kunden an? Wie lassen sich durch KI generierte Erkenntnisse monetarisieren? Das ist ein großes Thema. Hat Schunk das bereits gelöst – oder andere Kunden? Oder ist das ein laufender Prozess, bei dem ihr die Modelle gemeinsam mit dem Kunden entwickelt? Was ist deine Sicht?

Scott

Immer wenn du mit einem Kunden sprichst, musst du die Feinheiten seines Geschäfts verstehen. Ich sage immer: Ich versuche, ein Teil ihres Unternehmens zu werden. Ich sehe mich selbst fast wie ein interner Mitarbeiter – besonders wenn ich tief in den Shopfloor eintauche.

Denn manchmal glauben Menschen auf höherer Ebene zu wissen, wo das Problem liegt. Aber wenn du dann mit den Bedienern oder Instandhaltern sprichst, sieht die Realität oft ganz anders aus.

Deshalb ist es wichtig, ins Detail zu gehen, die richtigen Fragen zu stellen und zu verstehen, ob es überhaupt ein echtes Problem gibt – nur so kann man den potenziellen Business Value wirklich identifizieren.

Also stellt ihr quasi eine Hypothese auf, die ihr dann im Workshop mit dem Kunden validiert?

Scott

Wir nutzen meist mehrere Ansätze. Natürlich ist KI aktuell ein riesiges Buzzword. Viele Leute wollen einfach über KI reden – und wir sagen: „Okay, können wir machen – aber lasst uns auf die Bereiche konzentrieren, wo wirklich Mehrwert entsteht.“

Ein Ansatz, den wir nutzen, ist das sogenannte Double Diamond Thinking. Dabei fängt man breit an – man setzt sich gemeinsam hin und sammelt Ideen: „Das könnte spannend sein“, „Das könnte Nutzen bringen.“

Dann kommt die andere Seite des „Diamond“: Man priorisiert – ein, zwei oder drei Themen, die wirklich wichtig sind – und versucht, einen klaren Business Value zu definieren.

Und danach geht’s in den zweiten „Diamond“: Jetzt bauen wir etwas Reales.

Wir vermeiden klassische POCs (Proof of Concept), denn meiner Meinung nach ist für konzeptionelle Spielereien wenig Platz. Es geht darum, zu zeigen, was schon anderswo funktioniert hat.
Deshalb machen wir einen Proof of Technology, der ca. drei Monate dauert, um zu demonstrieren, dass echter Mehrwert entsteht.

Wir nehmen alle Beteiligten mit auf diese Reise – und wenn es funktioniert, folgt der nächste Schritt: Skalierung und Weiterentwicklung.

Nach meiner Erfahrung ist das der beste Weg.

Aber es gibt auch noch tiefergehende Methoden. Zum Beispiel haben wir Digital Factory Assessments durchgeführt – basierend auf dem SIRI Framework (Smart Industry Readiness Index).

Das ist ein zweitägiger Workshop, den auch McKinsey und das Weltwirtschaftsforum nutzen, um sogenannte Lighthouse-Fabriken zu bewerten. Sehr spannende Forschung.
Dabei bewertet man ein Werk entlang von 16 Dimensionen und gibt jeder einen Wert von 0 bis 5, je nach Digitalisierungsgrad.

Dann kann man seinen Standort mit über 5.000 anderen weltweit vergleichen – und sieht, wo man innerhalb seiner Branche steht.

Sehr spannend! Ich verlinke das auf jeden Fall in den Show Notes – wenn du magst, kannst du mir das später schicken. Aber zurück zur letzten Frage: Wie kommuniziert man KI-generierte Erkenntnisse eigentlich richtig?

Nehmen wir an, die KI liefert eine konkrete Empfehlung: „Du musst das Öl wechseln“ – basierend auf einer komplexen Analyse.

Jetzt hast du diese Erkenntnis – aber wie überbringst du sie effektiv an den Kunden?

Scott

Ich habe vorhin die drei Phasen erwähnt: Vorhersagen, Optimieren und Anleiten. Was du jetzt ansprichst, fällt in die anleitende Phase — in der KI große Informationsmengen in den Kontext setzt und zum Beispiel vorschlägt: „Das ist wahrscheinlich die Ursache für den Ausfall – überprüfe diese Komponente.“ Manchmal werden sogar zwei Optionen genannt.

An dieser Stelle kommt der Mensch ins Spiel: Eine fachkundige Person beurteilt, ob die Empfehlung korrekt ist oder nicht. Sie prüft dann weiter, um die KI-Empfehlung zu bestätigen oder zu widerlegen.

Wenn man diese anleitende Erkenntnis hat, geht es im nächsten Schritt darum, tatsächlich zu handeln.

Und genau daran scheitern viele Unternehmen – denn Technologie ist nicht die Lösung für alles. In manchen Fällen würde ich sagen, Technologie macht nur etwa 30 % aus. Der Rest ist Prozess.
Die eigentliche Frage ist: Ist das Unternehmen überhaupt darauf vorbereitet, eine Empfehlung zu empfangen und danach zu handeln?

Das ist der nächste Schritt: Ist die Organisation bereit, Technologie zu übernehmen und in den Betrieb zu integrieren?

Deshalb arbeiten wir eng mit unseren Kunden zusammen – nicht nur, um ihnen bei der Einführung von Technologie zu helfen, sondern auch, um sicherzustellen, dass sie bereit sind, deren Empfehlungen umzusetzen. Das ist eine ganz andere Seite der Problemstellung.

Ja, das ergibt absolut Sinn. Vielleicht noch eine letzte Frage zur Business-Case-Seite: Wer zahlt eigentlich was?

Denn bei Kunden wie Continental – oder vielleicht auch bei anderen wie Schaeffler oder Volkswagen – entstehen Use Cases oft auf Werksebene.
Sie lösen damit vielleicht ein Problem innerhalb des Werks, müssen aber dennoch mit Experten zusammenarbeiten – etwa aus dem Maschinen- oder Komponentenbereich –, weil diese ihre Maschinen bis ins Detail kennen.

Was ist deine persönliche Einschätzung – oder hast du Best Practices dazu, wer für was zahlt?

Scott

Ja, das ist fast schon die Millionen-Dollar-Frage für Unternehmen. Jeder Betrieb funktioniert anders – aber gerade in der Fertigung sieht man oft „Mini-Königreiche“: Jedes Werk oder jede Anlage ist eine eigene kleine Welt.

Man schafft es vielleicht, eine Technologie erfolgreich in einem Werk einzuführen – aber sie in anderen Werken auszurollen, ist eine ganz andere Geschichte.

Dort gibt es oft andere Budgets und eigenständige Entscheidungsprozesse.

Und genau das ist ein zentrales Problem: Wie bringt man alle auf dieselbe Seite?

Das unterscheidet sich von Unternehmen zu Unternehmen – und gehört zur typischen Enterprise-Herausforderung: Alle müssen Teil der Reise sein. Dazu gehören IT-Teams, zentrale Digitalisierungsabteilungen, Werksleitungen – und es braucht eine Abstimmung zwischen den einzelnen Werken.

Sonst hat man nur eine Lösung für einen Standort.

Ein weiteres Thema ist die Frage, wann man Cloud-Lösungen integrieren sollte – etwa von Schunk oder anderen Anbietern, die wertvolle Daten und Domänenwissen mitbringen.
Sie wissen, wie ihre Maschinen funktionieren, wann das Öl gewechselt werden muss – um nur ein einfaches Beispiel zu nennen.

Aber dann muss man entscheiden: Wie integriere ich solche cloudbasierten Lösungen in mein eigenes System?

Gerade in Enterprise-Umgebungen mit komplexen IT-Architekturen ist das besonders herausfordernd.

Also stellt sich die Frage: Wie binde ich externe Anbieter wie Schunk ein, die ihre Anwendungen bereitstellen oder ihr Know-how einbringen möchten?

Das ist auch etwas, das ihr hier am Stand zeigt.

Scott

Das ist wirklich von Unternehmen zu Unternehmen verschieden. Manche sind ganz klar offen für Innovation – das merkt man sofort in den Gesprächen. Andere wiederum verfolgen lieber einen DIY-Ansatz und wollen alles intern entwickeln.

Ich glaube, die erfolgreichsten Unternehmen sind diejenigen, die mit offenen Systemen und Architekturen arbeiten, in die sich verschiedene Tools integrieren lassen – und die offen für externe Zusammenarbeit sind.

Gleichzeitig muss man die verschiedenen Stakeholder einbinden – insbesondere die IT-Abteilungen, die oft schon eigene Lösungen im Einsatz haben.

Wie man so schön sagt: „Sprich niemals schlecht über das Baby eines anderen.“

Man muss sicherstellen, dass sich alle Beteiligten mitgenommen fühlen – das ist der Schlüssel zum Erfolg.
Wenn es um digitale Transformation geht, sage ich immer: Es muss sich so anfühlen, als wäre die Idee aus dem Team selbst gekommen.

Wenn man einfach zu einem Produktionsteam sagt: „Hier ist Predictive Maintenance – nutzt das jetzt“, wird das nie angenommen.

Man muss gemeinsam daran arbeiten, die Leute einbinden, ihnen das Gefühl geben, dass sie es selbst mitgestalten.

Dann wird es ihr Baby, unser Baby – das gemeinsame Baby.

Und wenn man etwas gemeinsam großzieht, funktioniert es.

Es ist eine neue Ära der Zusammenarbeit — über digitale Teams hinweg, mit interdisziplinären Setups und Partnerschaften, auch mit externen Anbietern.

Scott

Zum Glück gibt es mittlerweile Standards, die genau diese Zusammenarbeit erleichtern — Protokolle, APIs und Cloud-Infrastrukturen, die für Offenheit ausgelegt sind. Und genau das sehen wir auch unter der Oberfläche hier auf der Hannover Messe entstehen.

Ja, viele der gezeigten Technologien werden vielleicht erst in ein paar Jahren wirklich eingesetzt. Aber spannend ist, dass immer mehr ernsthaft über gemeinsame Plattformen und Infrastrukturen gesprochen wird — Stichworte wie OPC UA, Unified Namespace und ähnliche Ansätze –, um genau diese Art der Zusammenarbeit möglich zu machen.

Ja, all diese Themen sind äußerst wichtig. Danke, dass du den technischen Aspekt nochmal eingebracht hast! Ich hätte noch ein, zwei Fragen – vor allem dazu, wie SoftServe konkret mit Technologie unterstützt und worauf man künftig achten sollte. Kommen wir zum letzten Punkt: Ich bin neugierig, wie genau SoftServe unterstützen kann.

Wir haben das am Anfang schon angerissen – und für alle, die ähnliche Projekte starten: Ich packe deinen Kontakt in die Show Notes, sodass man sich direkt vernetzen und Best Practices austauschen kann.

Vielleicht kannst du aber noch etwas genauer erklären: Wie genau habt ihr Schunk – und vielleicht auch Continental – in diesen Projekten unterstützt? Und dann könnten wir noch auf das größere Bild schauen.

Scott

Eines der Dinge, die ich an SoftServe besonders schätze, ist unsere technologische Unabhängigkeit. Das bedeutet: Wir verfolgen immer den Ansatz, das Beste für den Kunden zu tun.

Selbst wenn ein ISV (Independent Software Vendor) eine Out-of-the-Box-Lösung anbietet – in der Realität braucht es fast immer eine gewisse Individualisierung, denn jede Infrastruktur sieht anders aus. Plug & Play funktioniert selten.

Die Stärke von SoftServe liegt darin, dass wir erstmal einen Schritt zurücktreten, uns die bestehende Architektur und die Anforderungen des Kunden ansehen – und dann sagen: „In deiner Situation wäre das hier der beste Weg, um diese Lösung umzusetzen.“
Wir drücken dem Kunden nicht irgendein Tool in die Hand, nach dem Motto „Wer nur einen Hammer hat, sieht überall Nägel“. Sondern wir fragen: Was brauchst du wirklich? Und welche Werkzeuge können wir sinnvoll integrieren, damit du dein Ziel erreichst – passend zu Budget und Prioritäten?

Und auf dieser Grundlage bauen wir das richtige Setup.
Im Fall von Schunk zum Beispiel ging es um ein sehr breites Spektrum an Anlagentypen, für das eine skalierbare IoT-Infrastruktur aufgebaut werden musste. Dabei haben wir sie – gemeinsam mit Microsoft – auf Basis des Microsoft-Stacks unterstützt.

Und sobald diese Grundlage stand, konnten wir die spannenderen Tools wie generative KI einbringen. Ab da wurde es richtig interessant.

Bringt ihr dann auch konkret Leute und Experten in die Projekte ein – oder stellt ihr auch Software bzw. Templates zur Verfügung, um den Prozess zu unterstützen?

Scott

Wir arbeiten da sehr flexibel. SoftServe hat weltweit rund 11.000 Mitarbeitende. Und innerhalb dieser Organisation haben wir sogenannte Centers of Excellence – also echte Fachexperten, die sich in Themen wie IoT bis ins Detail auskennen.

Dazu kommen über 100 Data Scientists, und je nach Projekt bringen wir diese Experten zusammen, um ein passgenaues Team aufzustellen – quasi ein „Crack Team“, das genau auf die jeweilige Herausforderung des Kunden ausgerichtet ist.

Außerdem nutzen wir sogenannte Templates oder Acceleratoren – das sind bewährte Strukturen und Architekturen aus früheren Projekten. Damit kommen wir schon auf etwa 60 % des fertigen Setups, bevor wir überhaupt mit dem Kunden starten.

Das bedeutet: Das Problem ist oft schon klar definiert, die Architektur steht im Groben, Schnittstellen (APIs) und Integrationen sind vorbereitet – sodass wir die Lösung sehr schnell in die bestehende Infrastruktur des Kunden integrieren können.

Und ihr arbeitet dann je nach Bedarf auch mit verschiedenen Standards und Technologie-Stacks, oder?

Scott

Ganz genau – und das auch mit verschiedenen Partnern. Zum Beispiel arbeiten wir eng mit Litmus zusammen – ich bin persönlich ein großer Fan ihrer Arbeit.

Deren Plattform ermöglicht es, sich mit praktisch jeder SPS zu verbinden – das ist wirklich mächtig.

Wir halten dazu übrigens einen gemeinsamen Vortrag – entweder heute oder morgen –, das wird sicher spannend!

Cool, das verlinke ich dann in den Show Notes. Wenn ihr gerade zuhört, schaut da gerne mal rein – dort findet ihr alles, worüber wir gesprochen haben.

Lass uns zum Abschluss noch eine letzte Frage stellen:
Du hast ja schon viele verschiedene Projekte gesehen – aus deiner Erfahrung und deinem Hintergrund: Welche zwei oder drei wichtigsten Learnings würdest du anderen mitgeben, die gerade einen GenAI Use Case auf Basis von IoT-Daten aufbauen?

Scott

Ich würde wahrscheinlich nochmal auf das Konzept des „Double Diamond Thinking“ zurückkommen. Mit Technologie zu starten, ist der falsche Ansatz – man muss beim Problem anfangen. Dann folgt der Prozess des Verstehens, Lernens und erst dann die Frage: „Welche Technologien könnten das lösen?“

Aber selbst dann ist Technologie nicht immer die Antwort.

Wir haben mit vielen Kunden gearbeitet, bei denen die Lösung eher im Prozess lag. Und genau da unterstützen wir auch – denn letztlich ist es die Fusion von Technologie und Mensch, die solche Projekte erfolgreich macht. Und genau darin liegt die eigentliche Schönheit.
Der zweite Punkt, den ich mitgeben würde: Ja, Technologie ist verfügbar – aber es geht darum, die richtige auszuwählen und auf einer soliden, offenen Infrastruktur aufzubauen.

Wir haben viel über Daten gesprochen – sie zu bereinigen, zu strukturieren und nutzbar zu machen.

Das ist die Straße, auf der andere dann Innovationen vorantreiben können.

Wir haben dazu auch Anfang des Jahres eine Umfrage gemacht – ich kann dir den Link für die Show Notes geben.

Daran haben über 750 Industrie-Experten, Direktoren und Entscheider teilgenommen.

Eine zentrale Erkenntnis war: 75 % planen, stärker in die Datenbasis zu investieren.

Denn nur so lässt sich das Spannende – wie AI oder GenAI – überhaupt skalieren.

Und genau darum geht es.

Ja, das stimmt – ich packe den Link gern in die Show Notes.

Es ist ja immer so ein Henne-Ei-Problem – einerseits möchte man mit einem Business Case starten, um direkt Mehrwert zu generieren. Andererseits muss man sich auch um die Konnektivität kümmern – oder, wie du es genannt hast, um die Basis.

Meinst du damit die Datenerfassung – oder eher: den skalierbaren Weg zur Datennutzung?

Scott

Genau. Es geht darum, Daten den richtigen Leuten verfügbar zu machen – und sie dann so zu verteilen, dass, wenn jemand im Business eine Idee hat, diese auch schnell umsetzbar ist.

Das ist entscheidend – es geht darum, die Fachbereiche zu befähigen, schnell zu handeln.

Richtig – das wäre dann also der zweite zentrale Punkt: Man muss in beide Seiten investieren – den Business Case und die IT-Infrastruktur, die Skalierung ermöglicht.

Scott

Wie du sagst: Es ist ein Henne-Ei-Thema – manchmal entsteht der Business Value erst durch eine GenAI-Anwendung. Aber um dahin zu kommen, brauchst du eine solide Datenbasis.

Und auch standardisierte Daten sowie ein sauberes Data Engineering – sonst lässt sich das alles gar nicht effizient umsetzen.

Scott

Genau da liegen bei vielen Unternehmen die Herausforderungen.

Und hier sind Proofs of Technology extrem hilfreich – sie schlagen die Brücke zwischen Business und technischer Grundlage.

Okay, cool. Dann lass uns mit einem letzten Ausblick abschließen:

Wie siehst du die Entwicklung – sagen wir, von der heutigen Predictive Optimization hin zu GenAI-Tools – bis 2030 oder in den nächsten fünf bis zehn Jahren?

Wohin geht deiner Meinung nach die Reise?

Scott

Ich habe mir neulich die GTC-Keynote von Jensen Huang angesehen, in der er die Vision von NVIDIA vorgestellt hat, wo die Reise hingeht.

Die Roadmap reicht von Generativer KI über Agentic AI bis hin zu Physical AI.

Das Thema Agentic AI finde ich besonders spannend – aber es gibt noch viele Missverständnisse dazu.

Manche nutzen heute schon multimodale RAGs, was bereits beeindruckend ist.

Was mich aber wirklich fasziniert, ist das komplexe Reasoning – also die Fähigkeit eines KI-Systems, zwischen verschiedenen Systemen zu wechseln, Vorverarbeitung und Denkprozesse durchzuführen und dann mit einer strukturierten, aussagekräftigen Antwort zurückzukommen – und eben nicht nur mit einem generischen Output.

Das wird die Leistungsfähigkeit dieser Systeme stark verändern – auch wenn sie extrem rechenintensiv sind.
Es wird also ein längerer Weg, Unternehmen darauf vorzubereiten. Und wieder einmal gilt: Ohne solide Datenbasis geht es nicht – denn eine sinnvolle Verknüpfung mehrerer Systeme ist alles andere als einfach.

Der nächste Schritt ist dann Physical AI. Erste Anzeichen sehen wir schon – etwa durch unsere Zusammenarbeit mit NVIDIA, bei der wir Roboter in virtuellen Umgebungen mit physikbasierten Simulationen trainieren.

Die Fähigkeit, physische Interaktionen zu modellieren – sei es mit Flüssigkeiten oder Roboter-Greifern – wird immer ausgefeilter.

Ich vergleiche das oft damit, wie mein Kind lernt, etwas aufzuheben: Die KI scheitert im Simulationstraining viele Male – aber irgendwann klappt es. Und das ist schon ziemlich beeindruckend.
Ob das jetzt das ultimative nächste große Ding ist, weiß ich nicht – aber ich bin persönlich total begeistert von diesem Bereich.
Wir erleben gerade eine Art Renaissance der Robotik – und sie werden erschreckend intelligent. Das ist gleichermaßen faszinierend wie unterhaltsam.

Es ist diese Verschmelzung von virtueller und physischer Welt – und genau da wird es richtig spannend.

Sehr schön. Das klingt auf jeden Fall nach einem Thema für eine eigene Folge!

Sobald ihr da etwas live im Einsatz habt, sollten wir uns unbedingt nochmal zusammensetzen und darüber sprechen, wie man solche Use Cases konkret umsetzt.

Also bis hierhin – vielen Dank für deine Zeit heute! Das waren wirklich spannende Einblicke – für mich und für alle Zuhörenden.

Und falls ihr an einem ähnlichen Thema arbeitet und herausfinden wollt, was in eurem Unternehmen möglich ist – meldet euch bei Scott. Ich verlinke den Kontakt in den Show Notes. Und man findet euch unter softserveinc.com, oder?

Schaut da gerne vorbei – und nochmal vielen Dank, dass du hier warst und wir direkt auf der Hannover Messe aufnehmen konnten.

Scott

Danke! Und ja – wenn ihr auch auf der Messe seid, meldet euch gern.

Und wie gesagt: Mein Lieblingsvergleich bleibt – lasst uns das Baby gemeinsam großziehen. Klingt seltsam, aber passt irgendwie!

Perfekt. Habt eine gute Woche – bis bald!

Für Rückfragen stehe ich Ihnen gern zur Verfügung.

Questions? Contact Madeleine Mickeleit

Ing. Madeleine Mickeleit

Host & Geschäftsführerin
IoT Use Case Podcast