Do you want to see our content in English?

x
x

OPC UA Forge: Unified Namespace für Legacy-Fabrikdaten

““

Sie sehen gerade einen Platzhalterinhalt von Spotify Player. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf den Button unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Weitere Informationen
IoT Use Case Podcast auf Spotify anhören
IoT Use Case Podcast auf Spotify anhören
IoT Use Case Podcast auf anderen Plattformen anhören

IoT Use Case Podcast Folge 203 - Prosys OPC & Casa Mendes Gonçalves

In dieser Episode des IoT Use Case Podcasts spricht Host Dr. Peter Schopf mit Jouni Aro, CTO bei Prosys OPC, sowie mit Luís Estriga, Head of Automation, und Vasim Tana, Automation Engineer – beide bei Casa Mendes Gonçalves. Im Fokus steht, wie sich OPC UA über ein reines Transportprotokoll hinaus entwickelt und was es braucht, um OPC UA in einem produktionsfähigen Daten-Stack umzusetzen.

Podcast Zusammenfassung

Casa Mendes Gonçalves (Portugal) startete die industrielle Digitalisierung mit fragmentierten Maschinendaten und einem weitgehend manuellen, extern betriebenen Setup. Das machte es schwierig, weitere Bestandsanlagen und neue Maschinen skalierbar anzubinden. Zentrale Herausforderungen waren heterogene „Maschinendialekte“, unzuverlässiges Monitoring und Alerting sowie fehlende, einheitliche OT-Datensicht für Betrieb, Qualität und Energiemanagement – bei gleichzeitigem Kostendruck und dem Wunsch nach Flexibilität für eigene Dashboards.

Das Team setzte eine OPC-UA-basierte Architektur um und nutzte Prosys OPC UA Forge als Aggregationsserver, um einen Unified Namespace aufzubauen. Dabei werden Daten aus mehreren Systemen in einem OPC-UA-Server zusammengeführt und an Grafana bereitgestellt. Die Datenerfassung erfolgt in Minutenintervallen (ca. 500 Datenpunkte pro Minute) und ermöglicht Dashboards, Echtzeit-Alarme (z. B. für Kühlkammern oder Fermentationstemperaturen) sowie Remote-Monitoring per VPN. Zudem unterstützt das Setup die nächsten Schritte in Richtung semantischer Informationsmodelle, um Interoperabilität zu verbessern und Daten für KI-Use Cases vorzubereiten.

Für IT/OT-Verantwortliche ist das Ergebnis messbar: schnellere Integration heterogener Assets, stabiler Datenzugriff für Analysen und konkrete Kostensenkungen – etwa durch das Erkennen von Druckluft-Leckagen im Wert von rund 28.000 € pro Jahr. Zusätzlich entsteht eine klare Roadmap für interne GenAI- bzw. Chatbot-Lösungen auf Basis verlässlicher, kontextualisierter Fabrikdaten.

Podcast Interview

Heute, in dieser englischen Episode des IoT Use Case Podcasts, spricht ein echter Insider rund um OPC UA über Entwicklungen und Herausforderungen dieses sehr relevanten Standards. Mit Casa Mendes Gonçalves haben wir ein portugiesisches Unternehmen aus der Food-and-Beverage-Industrie zu Gast, das seine Digitalisierungsreise ambitioniert vorantreibt – mit all den typischen Herausforderungen. Sie teilen ihre Learnings und Erfolge sehr offen.
Unsere Gäste heute sind Jouni Aro, CTO des finnischen Unternehmens Prosys OPC und Mitglied des Advisory Council der OPC Foundation, Luís Estriga, Head of Automation, und Vasim Tana, Automation Engineer, beide bei Casa Mendes Gonçalves.
Meint ihr, die Zusammenarbeit zwischen einer portugiesischen und einer finnischen Firma funktioniert? Finden wir es heraus. Hallo und herzlich willkommen.

Heute ein besonderes „bom dia“ zu dieser Episode des IoT Use Case Podcasts. Ich bin euer Podcast-Co-Host Dr. Peter Schopf, euer Lieblings-Vertreter für Madeleine Mickeleit, die im nächsten Monat ein ganz besonderes Projekt hat. Nicht die Digital Twins, über die wir hier oft sprechen, sondern echte Zwillinge – ein komplett anderes Set an Herausforderungen, das sie da erwartet. Bevor wir unsere Gäste begrüßen, stellen wir uns aber erst einmal etwas genauer vor. Luís, warum sollten die Zuhörerinnen und Zuhörer heute bis zum Ende dranbleiben?

Luís

Hallo zusammen, ich bin Luís Estriga, ich arbeite bei Casa Mendes Gonçalves und sitze in Portugal. Ihr solltet heute bis zum Ende dranbleiben, weil es spannende technische Details rund um OPC und die Digitalisierung der Industrie gibt. Am Ende werden wir wahrscheinlich auch KI ansprechen – also: unbedingt dranbleiben.

Super. Und dann haben wir Vasim. Was möchtest du aus deiner Sicht heute teilen?

Vasim

Ich glaube, das Wichtigste ist, ein bisschen über die Beziehung zu sprechen, die wir mit Prosys hatten, und wie wir mit deren Hilfe und Unterstützung die komplette Lösung intern entwickelt haben. Wie Luís schon erwähnt hat, laufen bei uns einige interessante Projekte – vor allem rund um KI, Datenmonetarisierung und darum, wie einfach wir diese Daten über alle Maschinen in der Fabrik hinweg verfügbar machen. Wir werden heute ein paar spannende Themen teilen. Hoffentlich gefällt es den Zuhörern.

Perfekt. Und dann, Jouni, last but not least: Was möchtest du heute mitgeben?

Jouni

Ich bin seit 20 bis 30 Jahren CTO bei Prosys OPC, und wir arbeiten praktisch die meiste Zeit davon an OPC UA. Ich möchte heute vor allem die fortgeschrittenen Teile von OPC UA hervorheben, die die meisten Menschen immer noch nicht wirklich nutzen können – und darauf eingehen, was OPC UA langfristig ermöglichen kann: nicht nur als Kommunikationsprotokoll, sondern als etwas deutlich Größeres.

Lass uns auch bei dir starten – mit Prosys als Unternehmen und mit dir als Person. Du bist ja schon länger als Berater in der OPC Foundation aktiv. Das ist spannend, weil du sehr nah dran bist an einem wichtigen Baustein der digitalen Transformation in Fabriken. Vielleicht kannst du kurz etwas zu dir erzählen: wo du gerade sitzt und was ihr als Firma macht.

Jouni

Wir sitzen in Finnland, in der Nähe der Aalto University – dem technischen Uni-Umfeld, aus dem die meisten unserer Mitarbeitenden kommen. Die Firma hat gerade ihr 30-jähriges Jubiläum gefeiert, und ich bin ungefähr zur gleichen Zeit dazugestoßen, als ich mein Studium beendet habe.
Wir wollten damals allgemein an einer besseren Zukunft für die Automatisierungsindustrie arbeiten – indem wir moderne Softwareentwicklungspraktiken in die Automatisierungssoftware bringen. OPC kam ungefähr zur gleichen Zeit auf, und wir haben das direkt genutzt. Irgendwie sind wir diese Reise all die Jahre weitergegangen und dadurch auch sehr eng an die OPC Foundation herangerückt, die inzwischen seit 20 Jahren an der Standardisierung von OPC UA arbeitet. Davor gab es OPC Classic, das eine starke Basis für die Weiterentwicklung war.
Man kann sich vorstellen: Die OPC Foundation hat über diese 20 Jahre hinweg Working Groups betrieben. Sie treffen sich jede Woche und verbessern den Standard – der versucht, sehr viel abzudecken. Manche sagen, er will zu viel abdecken. Aber wenn man an industrielle Automatisierung denkt, gibt es viele Themen, die gelöst werden müssen. Und je mehr standardisiert ist, desto besser. Das ist auch unsere Mission: der Industrie zu helfen, diese fantastische Technologie wirklich zu nutzen.
Und wenn irgendwann der Standard „fertig“ ist, kann man über höhere Ziele nachdenken – zum Beispiel über semantische Interoperabilität statt nur Kommunikations-Interoperabilität.

Das ist auch ein Commitment: Ihr heißt Prosys OPC – „OPC“ steckt sogar im Firmennamen. Das ist schon eine Ansage. Wie würdest du antworten, wenn ich dich ein bisschen herausfordere und sage: „OPC – ist das nicht einfach nur ein Protokoll?“

Jouni

Dass viele so denken, liegt daran, dass wir in der OT oft so draufschauen: Wir brauchen Daten aus Geräten und Maschinen, und dafür braucht man irgendein Protokoll, um mit diesen Maschinen zu kommunizieren. Traditionell waren das viele Legacy- und herstellerspezifische Kommunikationstechnologien. Die ursprüngliche Mission von OPC war, genau das zu standardisieren, damit man diese vendor-spezifischen Protokolle nicht alle verstehen muss.


Es gibt erfolgreiche Produkte, die verschiedenste Protokolle nach OPC bzw. OPC UA konvertieren – und das war sehr erfolgreich. Aber viel weiter sind wir oft nicht gekommen, obwohl gerade OPC UA das Ziel hatte, höher anzusetzen: nicht einfach „noch ein Kommunikationsprotokoll“ zu sein, sondern alles zusammenzubringen, was zur industriellen Automatisierung dazugehört.
Wir sprechen über aktuelle Messwerte, die über eine einfache, tag-basierte Kommunikation ausgetauscht werden. Und dann kommen Events, Alarme, historischer Zugriff dazu – und darüber hinaus verschiedenste Informationsmodelle, die domänenspezifischer sind. Das ist der Vorteil von OPC UA: Man kann Geräte, Abläufe, Systeme modellieren. Und wenn diese Modelle standardisiert sind, können Maschinen auch mit Anwendungen auf höherer Ebene interoperabel werden.
Leider konzentrieren sich viele Produkte und der Markt immer noch auf das Basisthema Kommunikation – also Standardisierung auf Protokollebene. Ich würde aber gerne über Standardisierung auf höherer Ebene sprechen.

Noch eine letzte Frage zu OPC UA, bevor wir in die Anwendung mit den anderen Gästen gehen. Es gibt sehr viele Mitglieder – über tausend. Da gibt es sicher viele Interessen und Gruppen. Wie schnell geht die Entwicklung? Du sagst, es gibt wöchentliche Working Groups – aber bekommt ihr Entscheidungen schnell genug hin, damit Marktanforderungen abgedeckt werden? Wie entwickelt sich das, und in welche Richtung geht es aktuell?

Jouni

Die Industrie hat sehr unterschiedliche Anforderungen und Wünsche, und wir sehen viele Organisationen, die OPC UA als Lösung betrachten. Man kann über das Open Process Automation Forum sprechen, über das Module Type Package von NAMUR und der PROFIBUS-Organisation und über viele weitere Herausforderungen.

Gerade in Deutschland sehen wir VDMA, die sich stark auf Informationsmodellierung für verschiedene Domänen fokussieren. Dort entstehen viele neue Anforderungen an OPC UA – besonders rund um den Teil Informationsmodellierung.
Tatsächlich geht der Standard ziemlich schnell und ziemlich weit voran. Aber am Ende hängt es daran, dass Endanwender diese Features wirklich brauchen – und dass Produkte diese Features auch bereitstellen, damit man sie nutzen kann. Das ist die Haupt-Herausforderung. Der Standard ist weiter, er macht große Versprechen – und dann sind Leute enttäuscht, wenn sie diese standardisierten Features in der Praxis noch nicht nutzen können.
Das ist die Realität: Produkte hinken hinterher, der Markt hinkt hinterher. Deshalb dauert diese Entwicklung in der Praxis Jahrzehnte statt Jahre, bis alles in den Fabriken wirklich angekommen ist.
Du sagst also: Der Standard kann schon deutlich mehr als viele Produkte heute bieten. Und deshalb gibt es dieses neue Produkt, über das wir später noch sprechen werden.

Sehr gut. Dann lass uns zum Markt und zu konkreten Anforderungen kommen. Ich freue mich, dass der Standard schon so viel bietet – und nicht der Standard der Flaschenhals ist, sondern die Umsetzung über Produkte.
Luís, ihr seid ein sehr spannendes Unternehmen in Portugal. Kannst du etwas über dich und eure Firma erzählen? Was macht ihr? Und vielleicht auch schon: Warum habt ihr entschieden, mit Digitalisierung anzufangen? Was war die initiale Motivation?

Luís

Ich arbeite seit fünf Jahren bei Mendes Gonçalves. Mendes Gonçalves ist seit ungefähr 40 Jahren am Markt und produziert Saucen wie Ketchup, Mayonnaise, Senf – alles, was man täglich im Supermarkt sieht. Wir produzieren auch scharfe Saucen und haben noch einige andere Projekte.
Als ich 2020 angefangen habe, gab es wenig Software: Wir hatten eine Maschine, von der wir Daten gesammelt haben. Das war an einen externen Anbieter ausgelagert. Das war nicht wirklich das, was wir gesucht haben, weil es sehr manuell war. Wir mussten jedes einzelne Detail fixen und konfigurieren, und dann hatten wir all die anderen Maschinen, die jeweils in ihrem eigenen „Dialekt“ gesprochen haben. Neue Maschinen in diese Lösung zu integrieren, war ziemlich schwierig.
Vor etwas mehr als einem Jahr haben wir entschieden: Warum entwickeln wir nicht unsere eigene Software, unsere eigene Lösung? Genau das haben wir dann gemacht. Wir haben uns am Markt umgesehen, welche Lösungen es gibt. Wir haben einige ausprobiert – und dann sind wir bei Prosys gelandet. Als wir das getestet haben, hatten wir keine Zweifel: Das ist genau das, was wir wollten und gesucht haben.
Wir waren nicht auf der Suche nach einer Lösung, die sofort zu 100 % ausfallsicher ist. Aber was uns dazu gebracht hat, Prosys zu wählen, war der Support und die Offenheit: sich mit uns zusammenzusetzen, zu schauen, was wir brauchen, und es dann umzusetzen. Jeden Tag integrieren wir mehr Maschinen und mehr Daten in unsere Lösung. Wir sammeln ungefähr 500 Datenpunkte pro Minute – das ist schon eine Menge Daten.
Das Hauptziel ist, Kosten zu senken, unsere Fabrik zu optimieren und Entscheidungen datenbasiert zu treffen.

Kannst du etwas genauer erklären, wie ihr euch am Markt umgeschaut habt? Viele Zuhörer sind wahrscheinlich in einer ähnlichen Situation: Sie haben Lösungen, die noch nicht wirklich zufriedenstellen, und müssen strukturierter nach Alternativen suchen. Wie seid ihr vorgegangen? Hattet ihr Kriterien, nach denen ihr Anbieter bewertet habt? Nimm uns da gern etwas mit auf die Reise bis zu Prosys.

Luís

Wir wollten eine Lösung, die nicht extrem teuer ist – es gibt am Markt einige sehr teure Lösungen. Es gibt auch Plug-and-Play-Lösungen, aber dann hat man keine Kontrolle. Wir wollten unsere eigenen Dashboards entwickeln; wir nutzen auch Grafana. Wir wollten etwas Stabiles. Und wir wollten eine Partnerschaft, die sich „nah“ anfühlt.

Spannend, dass du „nah“ sagst – ihr arbeitet ja mit einer finnischen Firma zusammen und ihr sitzt in Portugal. Von Klischees her würde man sagen, Finnland und Portugal sind vermutlich ziemlich unterschiedlich. Du hast jetzt mehrfach bestätigt, dass ihr sehr kollaborativ arbeitet und dass es super funktioniert – freut mich zu hören. Vasim, kannst du das Thema vielleicht aufgreifen: Wie ist die Zusammenarbeit mit den finnischen Kollegen? Und was waren Highlights?

Vasim

Für mich ist ganz klar das Wichtigste der Support, den wir von Prosys bekommen haben. Wie Luís gesagt hat: Ich bin seit einem Jahr als Automation Engineer bei Casa Mendes Gonçalves – es ist meine erste Erfahrung und mein erster Kontakt mit dem Markt und mit diesen Technologien.
In diesem Jahr, als wir nach dem richtigen Protokoll gesucht haben, haben wir viele Anbieter kontaktiert. Bei Prosys hatten wir ziemlich schnell das Gefühl: Das passt. Es ist nicht perfekt, aber damit können wir arbeiten. Und der Support war die ganze Zeit wirklich on point, deshalb haben wir uns entschieden, mit ihnen weiterzugehen und das gemeinsam zu erkunden.
Wir sind an den Punkt gekommen, an dem wir super komfortabel damit waren und sogar angefangen haben, Erweiterungen vorzuschlagen oder zu melden, wenn etwas nicht gut funktioniert. Wenn es ein kleines Problem gab, haben wir eine kurze Mail geschrieben oder Logfiles geschickt. Sie haben sofort geholfen und versucht zu verstehen, was los ist. Das Support-Team ist sogar besser als die OPC-Lösung.

Das ist stark. Gerade am Anfang, wenn man in dieses „Neuland Digitalisierung“ geht, ist diese Interaktion enorm wichtig. Hattet ihr in der täglichen Produktion schon Highlights, bei denen ihr sagt: Diese Insights hatten wir vorher nicht – oder konnten wir nicht so teilen, z. B. mit Kollegen auf dem Shopfloor? Was hat sich konkret verändert?

Vasim

Da gibt es mehrere Situationen. Ein Beispiel: Eines der Hauptprodukte unserer Fabrik ist Essig, und wir produzieren irgendwo zwischen 80 und 100 Tonnen Essig pro Tag.
Der Essigbereich ist der älteste Teil der Fabrik – so hat das Werk vor 30 oder 40 Jahren angefangen. Weil dort alte Anlagen stehen, war es ziemlich schwierig, Monitoring und Visualisierung modern aufzusetzen. Wir haben mit Grafana verschiedene Dashboards gebaut, basierend auf den Daten, die Prosys uns geholfen hat zu bekommen. Die Integration war wirklich einfach.
Wer in Fabriken und Automatisierung arbeitet, weiß, wie schwer es ist, alte Anlagen an moderne Lösungen anzubinden. Vor diesem Hintergrund war das überraschend einfach. Sobald wir die Daten aus den Maschinen hatten – alte wie neue – konnten wir komplett kostenlos Alerts einrichten, z. B. in Teams oder in anderen Anwendungen.
Die Daten zu bekommen, ist die Haupt-Herausforderung. Wenn wir die Daten haben, können wir damit machen, was wir wollen.
Ein weiteres Beispiel ist das Monitoring des Verbrauchs: Strom, Wasser, Dampf, Gas. Früher wussten wir nie, wie viel wir verbrauchen – bis die Rechnung am Monatsende kam. Als wir die Daten hatten, konnten wir nicht nur sehen, wie viel wir verbrauchen, sondern auch Leckagen, Unfälle oder potenziell gefährliche Situationen verhindern – wenn wir z. B. einen ungewöhnlich hohen Stromverbrauch an einer Stelle bemerkt haben oder zu hohen Gas- oder Wasserverbrauch.
Eine Situation war Druckluft. Als wir die Daten hatten und sie in Grafana visualisiert haben, haben wir gesehen, dass wir jeden Samstag und Sonntag einen hohen Luftverbrauch hatten. Das ergab keinen Sinn, weil diese Bereiche am Samstag und Sonntag nicht laufen Nach einer kurzen Untersuchung haben wir verstanden: Die Maschinenbediener haben das Luftventil nicht geschlossen. Sie haben es am Freitag offen gelassen, als sie nach Hause gegangen sind.
Wir konnten 28.000 Euro pro Jahr sparen – nur wegen der Luftmenge, die während Stillstandszeiten in die Produktionslinien geleckt ist. Das ist ein klares Beispiel dafür, wie Daten helfen, Kosten zu senken und das Arbeitsumfeld sicherer zu machen.
Das Wichtigste ist nicht nur, Daten zu bekommen, sondern sie einfach und effizient zu bekommen. Wenn man eine Lösung hat, mit der man Daten zwar bekommt, die aber ständig ausfällt, ist das nicht effizient und schwer nutzbar – das kompliziert den ganzen Prozess. Mit Prosys war die Integration ziemlich simpel.
Das Handbuch war eines der einfachsten Guides, die ich je genutzt habe: Installation, Konfiguration der Node, Kommunikation, IPs – alles sehr klar. Kein 200-Seiten-Handbuch. Direkt: Schritt eins, Schritt zwei, Schritt drei – fertig.

Das auf einfache Aspekte herunterzubrechen, ist extrem wichtig. Was du mit dem Leckage-Beispiel beschrieben hast: Wenn man über Transparenz und Dateninvestitionen spricht, kommt oft die Frage: Was ist der Business Case? Das ist schwer zu kalkulieren, weil solche Vorfälle und Erkenntnisse nicht wirklich vorhersagbar sind. Es sind eher kleine Goldnuggets: Man muss viele finden, und dann hat man irgendwann eine Handvoll Gold. Den einen „Silver Bullet“ gibt es selten. Es sind viele einzelne Optimierungen und Insights – basierend auf stabilen Daten.
Jouni, bezogen auf eure Lösung: Kannst du etwas genauer erklären, was bei Casa Mendes Gonçalves eingesetzt wurde? Was war das Produk t – und welche Vorteile siehst du, aber auch welche Herausforderungen, bei denen weiterhin Support nötig ist? Was sind die täglichen Themen in der Zusammenarbeit?

Jouni

Wir sprechen über Prosys OPC UA Forge – eine noch recht neue Anwendung, die wir vor ein paar Jahren auf den Markt gebracht haben.
Die Herausforderung in der Industrie war, Produkte zu bekommen, die fortgeschrittene OPC-UA-Features wirklich nutzen – wie Informationsmodellierung und Security-Features. Nachdem wir nach guten Lösungen gesucht hatten, haben wir nichts gefunden, das wirklich gut genug war – und haben entschieden, selbst etwas zu bauen.
Die Grundidee von Forge war ursprünglich, der Industrie zu ermöglichen, Informationsmodelle zu nutzen, bevor sie diese direkt in PLCs, Maschinen oder anderen Systemen verwenden können – um die Integration unterschiedlicher Maschinen in höherliegende Systeme wie MES zu erleichtern. Das war die ursprüngliche Idee. Aber es hat sich gezeigt, dass wir damit ein bisschen zu früh dran waren.
Die größte Herausforderung für Kunden ist, all die Daten in ihren Produktionsprozessen zu sehen und sie an einem einzigen Ort verfügbar zu machen. Damit hängt das Konzept Unified Namespace zusammen – eine starke Idee: die Komplexität von Fabriken zu reduzieren, in denen Daten zwar vorhanden sind, aber in verschiedensten Anwendungen, Systemen und Maschinen verteilt sind, jeweils lokal für bestimmte Zwecke in Steuerung und Maschinenfunktionalität. Diese Informationen zusammenzubringen ist schwierig.
Ich habe in den letzten fünf bis zehn Jahren mit vielen Unternehmen darüber gesprochen. Viele haben weltweit Fabriken zugekauft, und jede Fabrik ist komplett anders. Selbst wenn sie die gleichen Produkte herstellen, passiert das mit anderer Software und anderer Maschine – und Prozesse zu standardisieren ist extrem schwierig.
OPC UA würde ermöglichen, zu vereinheitlichen und zu standardisieren, wie man von jeder Maschine in diesen Namespace kommuniziert. Aber Produkte ermöglichen das bis heute noch nicht vollständig.
Unified Namespace bedeutet: Man bringt alles in eine saubere hierarchische Struktur, in der man alle Produktionsdaten findet. Darauf kann man dann Lösungen bauen, um zu verstehen, was in der Fabrik passiert, und Probleme schnell zu lokalisieren.
Klingt einfach, ist aber sehr kompliziert – wegen der vielen Systeme, Anwendungen und Kommunikationsprotokolle. Das ist die große Herausforderung, und wir wollten eine moderne Lösung schaffen, die zu 100 % auf OPC UA basiert.
Der Kern der Anwendung ist ein OPC-UA-Server. Wir bringen Informationen aus allen möglichen Quellen in diesen einen OPC-UA-Server. Das nennt sich Aggregation Server: Er aggregiert Daten aus unterschiedlichen darunterliegenden Systemen. In Forge kann man diese Daten manipulieren, die Verarbeitung „auf ein höheres Level“ heben und sie in höherwertige semantische Informationen überführen – die man braucht, um OPC-UA-Informationsmodelle wirklich zu nutzen.
Die meisten Kunden, die mit Performance und dem, was Forge ermöglicht, sehr zufrieden sind, hatten trotzdem kleinere Issues, die aber echte Herausforderungen sind – und wir haben mit ihnen zusammen daran gearbeitet und das in der Anwendung verbessert.

Ich hätte so viele Fragen zu Implementierung und Möglichkeiten. Aber mit Blick auf die Zeit müssen wir langsam zum Ende kommen. Luís, ich fände aus deiner Sicht spannend: Wie wollt ihr die Automatisierung weiterentwickeln? Was sind die nächsten Schritte und eure Vision?

Luís

An KI führt kein Weg vorbei. Anfang dieses Jahres haben wir schon begonnen, eine KI-Lösung zu entwickeln – zu 100 % intern – mit Unterstützung von Forge OPC beim Sammeln der Daten. Den KI-Teil entwickeln wir selbst.
Wir haben einige Lösungen getestet, und jetzt kommen wir langsam dahin. Bis Ende des Jahres sollten wir einen Chatbot am Laufen haben, den jeder Operator nutzen kann. Auch jede Ingenieurin und jeder Ingenieur kann dann Fragen an unseren Chatbot stellen – bezogen auf unsere Daten.
In Zukunft – vielleicht nächstes Jahr – planen wir, verschiedene Datentypen zusammenzuführen: Wasserverbrauch, Produktionsmengen auf den Linien, Stromverbrauch. Wir wollen diese Daten „kreuzen“ und Insights bekommen, die man mit bloßem Auge nicht sehen kann. Das ist hoffentlich unser Plan fürs nächste Jahr.

Klingt sehr gut. Generative AI im industriellen Umfeld ist nicht einfach umzusetzen – Stichwort Zuverlässigkeit – aber für Troubleshooting-Coaching und um Wissen zugänglich zu machen, ist das ein sehr guter Ansatz.
Ich gebe euch das letzte Wort. Vielen Dank fürs Teilen dieser Insights und spannenden Themen. Vasim, möchtest du starten?

Vasim

Das Publikum will vielleicht mehr Use Cases hören, deshalb kann ich noch ein paar zusätzliche Beispiele geben.
Ein Beispiel auf industriellem Level ist Alerting. In unserer Fabrik gibt es verschiedene Anlagen, die vom Qualitätsteam ständig überwacht werden, z. B. die Kühlkammern mit Rohmaterialien – Eier, Tomaten – wir sind ja in der Lebensmittelindustrie. Temperatur dauerhaft zu überwachen ist extrem wichtig.
Beim alten System ist das System ausgefallen, und wir mussten es manuell neu starten, um wieder Alerts zu bekommen. Manchmal gab es Bugs: Ein Alarm wurde ausgelöst, obwohl die Bedingungen eigentlich okay waren.
Mit der Lösung, die wir gebaut haben, lesen wir die Sensor-Daten der Kühlkammern jede Minute aus und setzen Alerts in Grafana, das Open Source ist. Diese Alerts bekommen wir in Echtzeit – und zu deutlich geringeren Kosten, weil wir nicht pro SMS zahlen. Wir haben ungefähr 16 Kühlkammern.
Das gleiche haben wir für Essig gemacht. Im Fermentationsprozess ist Temperatur sehr wichtig. Sie muss zwischen 28 und 30 Grad Celsius liegen, maximal bis 33 Grad. Höher oder niedriger – dann sterben die Bakterien, und man hat 10 oder 20 Tonnen Essig, die man nicht mehr nutzen kann. Das Monitoring ist daher sehr wichtig.
Ein weiterer Teil ist Remote-Monitoring. Früher: Wenn am Wochenende etwas passiert ist – Problem, Maschine läuft nicht, Fehler – mussten Operators das Haus verlassen, in die Fabrik fahren und am HMI schauen, was los ist. Jetzt haben wir Dashboards. Sie verbinden sich per VPN von zu Hause, auch übers Handy, und können in Echtzeit sehen, was passiert – Minute für Minute. Wir könnten das Intervall auf 30 Sekunden senken, aber für unsere Industrie und unsere Maschinen haben wir gesagt: eine Minute ist das Minimum. Also bekommen wir jede Minute Daten.
Ein weiteres Beispiel ist die Analyse großer Datenmengen. Wir haben Daten von Maschinen, die 16 bis 20 Stunden am Tag laufen. Früher musste man zur Analyse am Monatsende Excel herunterladen und eigene Grafiken bauen. Jetzt geht das mit einem Klick in Grafana. Wir sparen unseren Engineers, Operators und allen Teams viel Zeit, die Daten nutzen oder auswerten wollen. Sie müssen nichts mehr herunterladen oder irgendwo anders extrahieren. Sie setzen einfach den gewünschten Zeitfilter und wählen, wie sie die Daten visualisieren wollen – und alles ist direkt da.
Ich könnte noch weiter machen, aber Zeit ist ein Thema.

Trotzdem super – danke für die Beispiele. Luís, deine letzten Worte.

Luís

Als letztes Take-away: Fangt einfach an. In der industriellen Digitalisierung führt Warten auf das perfekte Systemdesign, die perfekten Tools oder den perfekten Zeitpunkt nur zu Stillstand. Man wird sonst nie anfangen.
Echter Fortschritt entsteht nicht dadurch, dass man die ideale Architektur auf Papier plant. Er entsteht dadurch, dass man die ersten Geräte verbindet, die ersten Datenpunkte validiert und unterwegs lernt.
Jede große digitale Fabrik, die man heute sieht, hat mit kleinen Schritten angefangen: ein paar Sensoren, ein einfaches OPC-Setup, simple Dashboards. Von dort hat sich das System weiterentwickelt. Das Team gewinnt Erkenntnisse, findet Probleme, verbessert sich Zyklus für Zyklus – und erst wenn Daten fließen, sieht man wirklich, was tatsächlich gefixt oder optimiert werden muss.
Wenn man nie beginnt, verändert sich nichts. Sobald man die ersten Schritte macht, wird der Weg nach vorn sehr klar.

Danke. Jouni?

Jouni

Ich möchte noch semantische Modellierung erwähnen. Das klingt nicht besonders fancy, aber was ist Semantik? Das sind die Wörter und Bedeutungen, die wir Dingen geben.
Wenn man über KI spricht: Man kann nicht besonders „clever“ sein, wenn man nicht weiß, worüber man spricht. Wenn wir semantische Modelle definieren und KI darauf aufsetzen, ist die Chance viel höher, etwas Sinnvolles herauszubekommen, als wenn man KI einfach auf reine Rohdaten loslässt, bei denen niemand weiß, was sie eigentlich sind.
Und genau da hat OPC UA aus meiner Sicht ein großes Versprechen: Wenn wir semantische Modelle und Semantik in der Industrie standardisieren, entsteht eine sehr starke Basis – auch für erfolgreiche KI-Algorithmen.

Sehr guter Punkt. Semantische Modellierung würde eigentlich eine eigene Episode verdienen, um tiefer reinzugehen. Danke für eure Insights und alles Gute für eure weitere Digitalisierungsreise. Alles Gute auch an die Zuhörer – und bis zur nächsten Episode.

Questions? Contact Madeleine Mickeleit

Ing. Madeleine Mickeleit

Mrs. IoT✌️Gründerin der IIoT Use Case GmbH | IoT Business Development | Welche Use Cases funktionieren – und WIE? Fokus auf Praxis! #TechBusiness #Mehrwert