Steuerung in der Cloud – Zukunft oder Realität? | #HM22 Special

node-divider.png

Klicken Sie auf den unteren Button, um den Inhalt von Spotify Player zu laden.

Inhalt laden

Podcast auf Apple anhören
Podcast auf Apple anhören
Facebook
Twitter
LinkedIn
WhatsApp
Email

Die Steuerung in der Cloud – Ist das noch Zukunft oder schon Realität? Das ist das Thema dieser Special-Folge, direkt live von der Hannover Messe. Gemeinsam mit dem wichtigsten europäischen Glashersteller Saint-Gobain Glass, dem Fraunhofer Institut für Produktionstechnologie (Fraunhofer IPT) und der Siemens AG wird dieser Frage auf den Grund gegangen. 

Folge 67 auf einen Blick (und Klick):

  • [05:35] Herausforderungen, Potenziale und Status quo – So sieht der Use Case in der Praxis aus
  • [28:59] Ergebnisse, Geschäftsmodelle und Best Practices – So wird der Erfolg gemessen

Zusammenfassung der Podcastfolge

Virtuelle PLC – Was ist das? Was sind die Use Cases, die Endkunden sehen? Was sind die Potentiale im Vergleich zu herkömmlichen Steuerungen?

In Podcastfolge 67 wird diskutiert, was virtuelle PLCs sind und warum dieser Technologiebaustein wertvoll für produzierende Betriebe sein kann. Die Sichtweisen und mögliche Use Cases kommen von Saint-Gobain Glass. Saint-Gobain Glass ist einer der wichtigsten europäischen Glashersteller und weltweiter Marktführer für beschichtete Gläser. Siemens zeigt in diesem Podcast-Trio, wie sich der Markt mit welchen Geschäftsmodellen und Produkten darauf vorbereitet. Dazu spricht die Runde über die Leistungsbewertung einer virtuellen PLC. Hier werden neben technologischen Herausforderungen wie Latenzen und Security auch die Abhängigkeiten herausgestellt. Wissenschaft und Wirtschaft sprechen häufig eine unterschiedliche Sprache – auch bei diesem Thema? In der Folge wird klar, wie die Zusammenarbeit zwischen Wirtschaft und Wissenschaft erfolgt und welche Forschungsfragen dazu das Fraunhofer IPT, stellvertretend für die Wissenschaft, bewegen.

Madeleine Mickeleits Gäste in dieser Specialfolge der Hannover Messe 2022:

 

Podcast Interview

Markus, du bist Produktionsleiter bei Saint-Gobain und verantwortlich für die deutschlandweite Digitalisierung mit Schwerpunkt Industrie 4.0. Ihr seid Experten auf dem Gebiet der Glasherstellung und Marktführer für beschichtete Gläser.

Markus

Richtig. Ich habe einen superspannenden Job, in dem ich die Herausforderungen des operativen Tagesgeschäfts in der Produktion mit strategischen und innovativen Dingen in der Digitalisierung kann.

Pierre, du bist Gruppenleiter am Fraunhofer-Institut für Produktionstechnologie, also das Fraunhofer IPT, in Aachen. Du leitest die Gruppe für digitale Infrastrukturen und beschäftigst dich mit der Vernetzung von Produktion der Feld- bis in die Cloudebene.

Pierre
Genau, dort schauen wir uns Vernetzungskonzepte für die Produktion an. Das heißt, einmal die Kommunikation natürlich, Echtzeit ist dort ein Begriff im Kontext 5G/Time-sensitive Networking. Und natürlich auch die Rechenumgebung, das ist essenziell. Da gucken wir uns Cloud- und Edge-Systeme an. Die Begriffe sind sehr fuzzy, deswegen rede ich gern von Factory-Cloud-Systemen, die lokal am Standort stehen.
 
Und Axel, du bist Vice President Control bei Siemens. Du bist heute aus dem Bereich Siemens Digital Industries dabei. Siemens – natürlich Technologie- und Innovationsführer für die industrielle Automatisierung und natürlich Digitalisierung. In enger Zusammenarbeit mit euren Partnern und Kunden treibt ihr die digitale Transformation ja schon seit Jahren, Jahrzehnten voran.
 
Wir sprechen heute über Control-as-a-Service beziehungsweise die virtuelle PLC. Das ist erst mal ein breiter Begriff und für viele wahrscheinlich neu. Pierre, was ist das überhaupt, eine virtuelle PLC, aus Forschungssicht?
Pierre
Die klassische PLC wird als Hardwarekomponente in Maschinen eingebaut, oder Roboter und Ähnliches. Dort ist spezifische, auf Echtzeit getrimmte Hardware drin. Was wir aus Sicht der Forschung versuchen, ist, die Software, die darin läuft, von der spezifischen Hardware zu lösen. So wollen wir unabhängig die Funktionalitäten, die eine PLC bereitstellt, auf verschiedenen Knotenpunkten als Software deployen können. Das ist sehr spannend, weil wir damit eine große Dynamik schaffen und Systeme automatische Updates, automatisiert über die Cloud, aufspielen können. Ältere Systeme sind damit obsolet. Das heißt, wir haben nicht verschiedene Generationen, sondern können wirklich einen Shopfloor konstant auf einem Level halten, immer eine sehr hohe Qualität. Wenn wir das Ganze auf Cloud- und Edge-Ebene bündeln, eröffnen sich auch ganz neue Konzepte der Vernetzung, der Flexibilität, der Optimierung. Ein sehr, sehr spannendes Thema; deswegen forschen wir da auch.
 
Axel, du bist mit Siemens hier am Tisch vertreten. Kannst du aus Marktsicht ergänzen, was die virtuelle PLC ist?
Axel
Was Pierre gesagt hat, so stellen wir uns auch die Zukunft vor – dahin wird es gehen. Das ist auch das, was wir brauchen. Unterwegs gibt es eine ganze Reihe Herausforderungen. Technische Herausforderungen, an denen wir arbeiten müssen. Es gibt aber auch eine riesengroße installierte Basis. Und es gibt eben auch die Anforderungen, wie wir bei der installierten Basis, die es heute gibt, das Thema Digitalisierung auch IN die installierte Basis hineinbringen können. Also wie kann ich einer heute installierten PLC, oder Sinumerik-Steuerung, helfen, digitaler zu werden – mehr digitale Anforderungen, mehr Informationen runterzubringen bis in die Fertigung? Seien es Ergebnisse aus dem Machine Learning oder einem AI-Umfeld. Sei es eine Datensammlung von verschiedenen Feldgeräten, die ich nach oben in die Cloud kommunizieren will. Oder sei es, wie Pierre auch richtig gesagt hat, dass ich die Möglichkeit des Updates, zum Beispiel für Patches bei Cybersecurity, bei der installierten Basis leichter mache, als sie in der Vergangenheit waren oder als sie heute sind.
 
Bei all den Dingen können uns diese … wir nennen es Industrial Edge, also die Factory Automation oder die Factory Installed Edge Systeme massiv helfen, weil sie die Funktionalitäten der installierten Basis ergänzen. Parallel müssen, wie Pierre es auch beschrieben hat, am nächsten Zustand, an der virtuellen PLC arbeiten, mit all den Herausforderungen, die wir damit unterwegs haben.

Herausforderungen, Potenziale und Status quo – So sieht der Use Case in der Praxis aus [05:35]

Ihr seid bei Siemens in ganz unterschiedlichen Industrien unterwegs. Kannst du ein paar Use Cases zusammenfassen, die in der praktischen Anwendung siehst?

Axel

Da gibt es eine Bandbreite. Da gibt es den Bereich der hybriden Systeme, wo wir eine installierte Steuerung, eine installierte PLC mit einem Factory-Edge-System kombinieren – ganz tolle Möglichkeiten mit Artificial Intelligence. Wo wir Predictive Maintenance machen können. Wo wir Visual Inspection machen können. Und wir können Optimierung und Produktivität für unsere Kunden in die Anlage bringen. Aber es gibt auch mittlerweile Anwendungen mit konkreten, deterministischen fail-safe Softwarecontrollern in der Anlage, wo wir wirklich auch sehr stark hardwareunabhängig arbeiten und auch ein anderes Spektrum der Hardware auslösen können. Bis hin zu richtig virtualisierten Controllern – die würde ich heute eher in einem Umfeld, was nicht so zeitkritisch ist, einsetzen. Aber auch da gibt es tolle Anwendungen: Denken wir mal an ein großes Wassernetz, wo ich die virtuelle Welt mit der realen Welt parallel laufen lassen kann und die Simulation mir überprüft, wie müsste sich meine Anlage gerade darstellen? Und wenn sie es nicht tut, erhalte ich klare Hinweise, an welcher Stelle es ein Problem gibt.

Also da gibt es verschiedene Anwendungen über verschiedene Branchen und Anwendungsfälle der Kunden, mit unterschiedlichen spezifischen Herausforderungen.

 
Pierre, ihr arbeitet auch in der Forschung selbst an unterschiedlichen Use Cases. Kannst du ein bisschen aus Forschungssicht ergänzen, welche Use Cases du siehst?
Pierre
Ich würde direkt anknüpfen: Diese verschiedenen Ebenen und dass es die Edge-Cloud ergänzt und mehr Funktionalität reinbringt in die PLC. Da würde mir als Beispiel Inline-Qualitätsmessung bei Werkzeugmaschinen zum Beispiel einfallen. Wir hatten in einem Projekt die Maschine ausgerüstet mit der tollsten Sensorik, die wir einbauen konnten – Acoustic-Emission-Sensor-Daten ohne Ende. Dann ist uns irgendwann aufgefallen: Oh, verarbeiten können wir die Daten … aber wie spielen wir die noch mal zurück? Wie können wir das wirklich nutzbar machen? Dann haben wir Stück für Stück Iterationen durchgespielt, wo die Vernetzung immer weiter vorangetrieben worden ist. Dann haben wir gemerkt, wir brauchen die Recheninfrastruktur, die Power. Dann sind wir in die Edge Cloud reingegangen, in die Factory Cloud. Dann ist uns aufgefallen, wir müssen das wieder zurück in die Maschine spielen; mussten dort Feldbus-Protokoll-Adapter entwickeln, irgendwie an die SPS rankommen, um dann am Ende zu sehen: Das ist alles instabil, latenzkritisch und sollte nicht so funktionieren.
 
Deswegen haben wir das Thema jetzt groß aufgerollt. Es ist wahnsinnig spannend, denn Inline-Qualitätskontrolle wird die Mängel, die bei der Fertigung entstehen, so weit runterschrauben, gerade bei teuren Bauteilen. Das ist immens interessant. In vielen Fällen könnte man sich den Weg ins Messlabor sparen – was Zeit einspart. Was die Techniker sich auf andere Aufgaben fokussieren lässt. Was Werkzeugmaschinen einsparen lässt. Und was einfach durchweg nachhaltiger ist, weil weniger Ausschuss produziert wird.
 
Weiter, wenn die Steuerung wirklich ausgelagert wird in die Cloud, diese zweite Iterationsebene, da finden wir es spannend, uns Kooperationen anzuschauen. Also zwei virtualisierte Robotersteuerungen – da ist es ja naheliegend, dass, wenn die beide auf einer Plattform laufen, dass man dort eine Komponente integrieren kann, eine Softwarekomponente, die eine Kooperation ermöglicht, wo vorher kabelgebundene Strecken aufgebaut werden mussten … hardgecodet, harte Bahnplanung, was das alles sehr inflexibel macht. Diese Kooperation, dieser Gedanke kann weitergetrieben werden. Mensch an Roboter, Mensch an Maschine, Roboter an Maschine und so weiter. Wir haben auf einmal eine ganze Spielwiese, die virtuell betrieben wird und unabhängig von der Hardware ist.
 
Tauchen wir mal in die Praxis ein. Markus, mich würde der Status quo bei euch vor Ort interessieren. Wir befinden uns in der Glasherstellung auf eurem Shopfloor: Wie muss man sich euren täglichen Job vorstellen und wie sieht so ein klassischer Shopfloor bei euch aus?
Markus
Ihr müsst euch das so vorstellen, wir haben einen der heißesten Jobs in Deutschland. Bei circa 1600 Grad verarbeiten wir unterschiedliche Rohstoffe: Sand, Soda, Dolomit und natürlich auch Scherben … zu unserem neuen Basisglas. Was dann der Rohstoff, oder das Ausgangsprodukt, für unsere Schwestergesellschaft Saint-Gobain Sekurit ist, die daraus Automobilglas herstellt. Was sehr wichtig ist: Unsere Anlagen laufen bis zu zwanzig Jahre kontinuierlich durch. Das heißt, wir stoppen unsere Produktion niemals! Das ist natürlich wichtig, wenn man sich überlegt, dass innerhalb von zwanzig Jahren natürlich sehr viele steuerungstechnische Innovationen stattfinden, über die wir auch gerade diskutieren. Das wollen wir natürlich auch alles in unsere Produktionsanlage bringen, um hier Vorteile im Hinblick auf Innovation und Digitalisierung erschließen zu können.
 
Die beiden hatten gerade schon so ein paar Use Cases angesprochen. Einmal das alles zur Qualitätskontrolle, aber auch so was wie, man spart sich irgendwo Wege, man spart sich Zeit, um dieses Thema Virtuelle PLC anzugehen. Was sind denn so Herausforderungen, die IHR habt auf dem Shopfloor?
Markus
Ich sehe hauptsächlich drei Herausforderungen, oder Anwendungsfälle, die man mit einem solchen Thema bedienen könnte. Ich habe ja gerade schon gesagt, dass unsere Anlagen zwanzig Jahre kontinuierlich laufen müssen. Das heißt, dass insbesondere Anforderungen an die Resilienz gestellt werden. Wir haben bis jetzt überall redundante Steuerungen verbaut. Ich könnte mir vorstellen, dass über eine Steuerung in der Cloud – die ja letztendlich virtuell vervielfältigbar ist – ein solches Thema der Resilienz wesentlich BESSER abgedeckt werden könnte.
 
Weitere Anwendungsfälle, die ich mir vorstellen kann, sind einmal der Retrofit. Wie gesagt, in zwanzig Jahren passiert sehr viel. Wir müssen natürlich immer sicherstellen, dass unsere jetzigen Steuerungsprogramme auch mit den neuen Generationen harmonieren. Man könnte sich also vorstellen, dass man schon vorher virtuell in der Cloud … unsere jetzigen Steuerungsprogramme in einem virtuellen Modell validiert, bevor wir sie in die Realität umsetzen. Und nicht zuletzt sind für uns natürlich auch nicht nur die Brownfield-Applikationen interessant. Auch WIR bekommen neue Anlagenteile. Da ist es natürlich sehr wichtig für uns, zusammen mit den Integratoren, dann hier neue Maßstäbe für Digitalisierung und Steuerungstechnik zu setzen.
 
Das heißt, deine primären Einsatzmöglichkeiten oder Potenziale, die du siehst, sind sozusagen die Virtualisierung der Steuerung im Hinblick auf Resilienz, aber auch auf Retrofit – das sind so die größten Potenziale?
Markus
Auf jeden Fall, genau.
 
Wenn wir noch mal ein Stück weiter gehen, geht es ja auch irgendwo um Daten, Datenquellen, die relevant sind, um so etwas abzubilden. Vielleicht mal auch aus der Praxis gefragt: Was sind Daten, die für euch besonders spannend sind? Geht es um Qualitätsmanagement oder sind das andere Daten?
Markus
Ich sage mal, an Datenquellen … man muss sich das so vorstellen: Unsere größte Datenquelle ist das Prozessleitsystem. Aber was so ein bisschen schade ist, auch heute bauen wir eigentlich noch auf Kommunikationstechnologien, die aus den Neunzigern sind. Das heißt, unsere typische Kette sieht so aus, dass wir die Datenquellen per OPC DA anbinden, dann vielleicht per Wrapper an OPC UA übersetzen und dann erst langsam in eine Welt kommen, wo wir MQTT sprechen … wo wir hochperformant Daten übermitteln können und uns dann im sogenannten Industrial IoT bewegen. Da wäre es natürlich für uns sehr wünschenswert, wenn wir eben nicht diese Kette so lang aufbauen müssten und sehr viele Schnittstellen haben, um letztendlich die neuen Protokolle des Internet of Things sprechen zu können. Sondern hier nativ diese Schnittstellen von neuen Steuerungen in der Cloud mit den entsprechenden Adaptern bekommen zu können.
 
Hast du da ein Beispiel aus einem Prozess bei euch? Ihr habt in der diskreten Fertigung ganz unterschiedliche Prozesse.
Markus
Ihr könnt euch das so vorstellen: Wir haben ja einen riesengroßen Schmelzreaktor, wo diese hohen Temperaturen herrschen. Darin ist auch ganz viel Regelungstechnik verbaut, um die Gasverbrennung und den gesamten Prozess zu steuern. Regler werden ja typischerweise irgendwo in der Auslegungsphase einer Anlage dimensioniert und dann vielleicht noch so ein bisschen bei der Inbetriebnahme feingetunt. Aber was wir merken, ist natürlich, dass so was nicht über zwanzig Jahre funktioniert. Sondern man muss da auf jeden Fall noch mal die Regler neu überarbeiten. Das findet heute viel im System an sich statt.
 
Was uns sehr helfen würde, wäre, wenn man eben die ganzen Informationen aus dem Prozess mit den aktuellen Reglerparametern in die Cloud bringen würde, dort letztendlich ein virtuelles Modell aufbaut, an dem man neue Reglerparameter testen, evaluieren kann – und diese dann virtuell getestet wieder zurück in den Produktionsbereich gibt. Wir sprechen heute auch schon von Edge Cloud, von Edge Devices. Also wir sind durchaus in diesem Themenfeld unterwegs; haben die Voraussetzungen geschaffen. Aber die vollständige Verbindung vom Shopfloor mit der Edge und dann mit der Cloud ist so in der Form noch nicht vorhanden. Auch weil: bis jetzt noch nicht möglich.
 
Das heißt, auch da könnte man solches Reglerverhalten virtuell testen und einfach vielleicht optimieren. Denn man hat es ja irgendwann mal festgelegt, und der nächste Schritt wäre, das mal zu hinterfragen und dafür die Daten bereit zu haben, oder?
Markus
Genau. Wir sagen immer, wir sprechen in zwei Kreisen, wenn man so möchte: Das eine ist der schnelle Reglerkreis, der letztendlich zur Ausführung kommt, wo ich nur noch meine entwickelten Regler, meine entwickelten Modelle anwende, um in der Produktion schnell zu sein – was Echtzeitfähigkeit, Reaktion angeht. Und ich habe meinen Optimierungszyklus, der dann vielleicht über die Cloud läuft, wo ich Daten analysieren und optimierte Einstellungen ergründen kann. Vielleicht auch mit neuen Methoden der künstlichen Intelligenz oder Mustererkennung.
 
Axel, kennst du solche Use Cases auch von anderen Kunden?
Axel
Absolut! Und wir versuchen, die Kette zu schließen, indem wir im Rahmen von, zum Beispiel bei uns Industrial Edge,  Konnektoren zu verschiedenen Feldsystemen – sei es unsere Steuerung, das wäre dann die Simatic, oder Steuerungen oder Komponenten von Mitbewerbern – über eine App direkt anzuschließen. Damit man die Daten möglichst vollständig, zeitnah und schnell bekommen kann. Man kann sie in der Indusrial Edge aufbereiten, selektieren, oder man kann sie auch direkt weiterleiten. Dazu haben wir dann den nächsten Konnektor, MQTT. Das alles sind Apps in Docker, sodass ein Kunde sie sehr leicht handhaben kann und sich auch sicher sein kann, dass die Komponenten für sich erst mal funktionieren.
 
Damit versuchen wir den Weg zu schließen, um genau die Anforderungen, die Markus beschreibt, hantierbar und verteilbar zu machen. Und dem Kunden auch die Möglichkeit zu geben, wenn ein Case zu seiner Zufriedenheit funktioniert, diesen auch auf verschiedene Werke, auf verschiedene Controller ausrollen zu können. Weil wir auch ein entsprechendes Managementsystem für diese Runtime und für die Apps zur Verfügung stellen. Damit bringen wir das dann letztendlich auch in einen Produktzustand, der unseren Kunden hilft – in dem Fall vielleicht auch Markus –, solche Lösungen zu applizieren.
 
Markus, jetzt haben wir von Axel ein bisschen die Markt- und Produktsicht ein bisschen bekommen. Was sind Forderungen von euch als Endkunde, die ein solches System mitbringen muss? Geht es da primär um dieses Schnittstellenmanagement?
Markus
Von … bis. Ich muss erst mal die Schnittstelle haben, um diese Konnektivität herzustellen. Eines der wichtigsten Themen im Industrial Internet of Things. Aber danach spielen auch viele andere Themen eine Rolle: Nicht zuletzt auch irgendwo ein Service Level Agreement. Ich würde mich total freuen, wenn wir mit Axel mal in diese Richtung gehen können, das vielleicht mal ausprobieren können, was heute, Stand der Technik, möglich ist an innovativen Steuerungstechniken. Aber am Ende des Tages muss Axel für mich auch 24/7 erreichbar sein.
 
Das heißt, ich sehe hier einen großen Punkt bei den Integratoren, die heutzutage noch so zwischen den Anbietern – den Großen, den Siemens – und uns als Endanwendern stehen, um letztendlich diese Technologien in den Markt zu bringen und auch uns Endanwendern, Saint-Gobain, vollumfänglich unterstützen zu können. Hier würde ich mich natürlich freuen, wenn die Integratoren eine noch stärkere Rolle einnehmen und mit in diese neuen Technologien, die Axel beschreibt, gehen würden.
 
In die Forschungsrichtung geschaut, Pierre. Mich würde interessieren, an welchen Forschungsfragen arbeitet ihr zu diesem Thema, um das anzugehen?
Pierre
Der erste Punkt, der sich schon herauskristallisiert hat, ist meiner Meinung nach die Standardisierung. Bei fünf verschiedenen Herstellern kann man sich sicher sein, dass heute alle unterschiedliche Protokolle sprechen und unterschiedliche Schnittstellen bereitstellen – was es natürlich sehr, sehr kompliziert macht, die alle miteinander zu vernetzen. Auch die Integration einer Cloud ist sehr, sehr schwierig bei heutigen Feldbus-Systemen. Ich glaube, da muss noch viel nachgearbeitet werden. Die Industrie muss sich auf einzelne Standards einigen, die dann auch übergreifend, und herstellerübergreifend, genutzt werden können.
 
Dann natürlich das klassische Thema Datensouveränität. Darauf will ich gar nicht zu tief eingehen. Die Industrie legt großen Wert darauf, dass die Daten dort bleiben, wo sie sein sollen, da entsprechendes IP (Intellectual Property) ausgelesen werden kann. Wenn nun ein herstellender Betrieb seine Produktion mit Vibrationssensoren ausstattet, und die Daten fließen raus, dann kann man aus den Daten im schlimmsten Fall reproduzieren, wie der Prozess verlaufen ist, und das Ganze dann nachstellen – was dann natürlich ein Problem für den Betrieb darstellt, weil sein Alleinstellungsmerkmal verschwunden ist.
 
Bezüglich der Infrastruktur hatte ich am Anfang ja schon zwei Themen angeschnitten: Datenübertragung und Computing. In beiden Fällen muss entsprechend den Anforderungen eine Echtzeit ermöglicht werden; Echtzeit im Sinne der determinierten Übertragung von Nachrichten oder des entsprechenden Rechnens. Ich glaube, da gibt es schon gute Ansätze im Bereich Technologie. Das muss aber noch weiter vorangetrieben werden. Auch noch mal der Kontext Standardisierung ist wichtig, dass die Industrie in einen Bereich einsteigt und dort fokussiert – ansonsten gibt es wieder viele verschiedene Insellösungen und dieses Gesamtkontinuum, was man ja dafür braucht … das fällt weg.
 
Einen letzten Punkt habe noch: die Verantwortung. Der ist auch ganz, ganz wichtig. Wir erweitern den Kreis der Hardwaresysteme von einem Meter verbaut in der Maschine hin zu dreißig Meter in den Severraum hinein … Die Frage ist: Was passiert beim Ausfall? Wer ist verantwortlich? – Derjenige, der die Kommunikationsstrecke aufbaut? Der, der die End-Devices aufbaut? Der, der die Recheninfrastruktur, die Applikation, die Maschinenanbindung und so weiter … ? Das kann man sehr feingranular aufbauen; das ist ein sehr großes Thema.
 
Vielleicht so ein bisschen der Blick in die Realität beziehungsweise auch in die Zukunft. Was ist denn jetzt der Status? Gibt es das Thema Virtuelle Steuerung schon? Wenn nicht, warum macht man das heute noch nicht? Was ist die Herausforderung mit der Umsetzung heute?
Pierre
Das Thema ist da und wird auch angegangen. Trotzdem ist die Industrie sehr konservativ, sage ich mal. Vielleicht eine kleine Anekdote: Mein Studium ist noch nicht so lange her. Dort habe ich im Bereich Regelung noch gelernt, wie man aus einer Sprungantwort, einem Geodreieck und einer Parametertabelle einen Regler auslegt – in Zeiten von künstlicher Intelligenz, Big Data und was weiß ich nicht alles, ist das natürlich nicht mehr zeitgemäß. Trotzdem, Hersteller bieten heutzutage immer mehr Anbindungsmöglichkeiten. Eine SPS hat verschiedene Schnittstellen. Es gibt Erweiterungsmodule. – Aber das Gesamtkonzept fehlt noch. Da gehört nicht nur die Verantwortungsfrage dazu, sondern auch, den Loop zu schließen, wieder zurück, einzelne Plattformen da reinzubringen, dass eben nicht nur Hersteller 1 alle drei Komponenten liefern kann, sondern dass vielleicht auch Komponente 2 von Hersteller 2 da eingebracht werden kann. Ich glaube, die Gesamt-Infrastruktur muss da noch aufgezogen werden; einzelne Komponenten, einzelne Probleme sind schon in der Lösung. Hier müssen sich noch mal alle zusammenfinden.
 
Wieder in die Praxis gesprungen; ihr habt das vorhin so schön gesagt, man bringt die Daten erst mal aus einer alten Steuerungs-Infrastruktur, sei es OPC DA, irgendwo ins UA. Das sind viele Insellösungen; das ist eine Herausforderung mit der Standardisierung. Wenn ich das Thema wirklich angehen will, morgen anfangen will, daran zu arbeiten, wie funktioniert denn dann die Datenaufnahme? Wie komme ich überhaupt an die Daten aus herkömmlichen PLCs?
Pierre
Viele der Anforderungen, die wir heute diskutiert haben, können wir angehen. Zum Beispiel mit einem Industrial Edge können wir sehr viele Daten aus der PLC sehr zeitnah rausholen, im Shopfloor vorverarbeiten, in die Cloud schicken. Die Zahl der Konnektoren, damit wir verschiedene Hersteller aus dem Shopfloor anbinden können, um die Daten zusammenzusammeln und sofort zu verarbeiten. Oder die Möglichkeit, Daten zum Beispiel aus einem AI-Modell runterzubringen aus der Cloud in den Shopfloor. Diese Möglichkeiten haben wir heute; das können wir heute einsetzen.
 
Wir haben sehr leistungsfähige Software-Controller, die wir damit kombinieren können. Den gesamten Zustand hinzukriegen, also was wir auch im Endausbau diskutiert haben … können wir nicht die Steuerung komplett in der Cloud ablaufen lassen und können wir nicht, um die Resilienz zu erhöhen, mehrere Steuerungen gleichzeitig ablaufen lassen? Wie sieht es dann aus mit der kompletten Deterministik? Wie funktionieren dann Anforderungen mit Fail-safe? Wie weit ist als Produktportfolio vorhanden, dass auch ein Partner irgendwo auf der Welt mit diesem Baukasten eine Lösung bauen kann, für die er die Verantwortung übernimmt? Da müssen wir noch ein Stück gehen. Da sind wir dran. Das halten wir für ein wichtiges Ziel, das wir angehen müssen.
 
Da freuen wir uns auch auf die Zusammenarbeit auf der einen Seite mit der Forschung, die uns Wege aufzeigt, wie man es machen kann, und auf der anderen Seite mit Kunden, die bereit sind, mit uns ein Proof of Concept zu machen – aber der Proof of Concept reicht nicht. Am Ende muss ein Produktportfolio her. Denn es müssen auch wieder die Partner, mit denen wir zusammenarbeiten in der ganzen Welt, eingebunden werden, um dann die Lösungen wiederholbar im Markt herzustellen. Das ist für uns eine tolle Aufgabe, bei der es sich lohnt, daran zu arbeiten in den nächsten Quartalen. Ich bin ganz gespannt, wie wir da vorankommen werden!
 
Wie funktioniert denn die Datenverarbeitung aus dieser Hardwareschicht in die nächste Ebene? Pierre, wie macht ihr das und wo gehen die Daten dann hin?
Pierre
Klassischerweise hat man spezifische Hardware, die darauf ausgerichtet ist, zügig Daten verarbeiten zu können, Anwendungen auszuführen, Steuerungsalgorithmen durchzuführen. Was man heute nutzt, oder gerne nutzen würde, wäre Standardhardware. Die auch Cloudprovider und so weiter standardmäßig verbauen. PCs, die sowieso im Shopfloor sind und so weiter. Die sind aber nicht auf die Echtzeit ausgelegt. Da arbeiten wir mit verschiedenen Virtualisierungsmöglichkeiten: Hypervisor, CPU Pinning, ähnliche Methoden. Um klar festzulegen, welche Rechenressourcen für welche Applikation da sind. Klar, könnten wir die Hardware durchweg noch mal echtzeitfähig machen. Spannend wäre aber auch, wenn das parallel laufen kann. Wenn nicht echtzeitkritische Applikationen parallel zu Echtzeit-Applikationen laufen, das ist, A, super, weil wir die Infrastruktur, die wir vor Ort haben, nutzen können, verschiedene Knoten nutzen, also redundant ausführen – das Thema Resilienz kam eben schon dran. Und natürlich auch im Bezug der Nachhaltigkeit. Warum müssen wir überall neue Rechensysteme aufstellen, die dann zu dreißig Prozent genutzt werden, wenn wir einfach mal die Infrastruktur nutzen, die wir schon haben vor Ort, und dann dynamisch die einzelnen Softwareapplikationen hin- und herspielen, je nachdem, wo es benötigt wird und wo gerade Ressourcen da sind?
 
Wir selber als IPT arbeiten auf verschiedenen Ebenen. Wir haben die Fraunhofer Edge Cloud. Das ist ein Serversystem, was bei uns lokal steht, was wir auf Echtzeit trimmen. Gehen aber runter Richtung PCs, die wir dann preampen und dort testen, aber auch auf Edge-Hardware, die dann von verschiedenen Herstellern bereitgestellt wird, wo wir das entsprechend testen und validieren.
 
Zum Thema Cloud, du hast schon verschiedene Provider und Möglichkeiten angesprochen. Es geht auch am Ende darum, die Daten auszuwerten. Markus hat vorhin von bestimmtem Reglerverhalten gesprochen, was optimiert werden kann. Wie und wo ist denn diese Datenauswertung möglich? Mache ich das auf der Edge? Mache ich das alles an der Cloud? Jeder hat sein eigenes System?
Axel
Das hängt ziemlich stark von den Anforderungen des Kunden und von der Applikation ab. Eine Datenvorverarbeitung im Shopfloor ist auf jeden Fall möglich, wenn wir Machine Learning machen oder Artificial Intelligence nutzen wollen und die Modelle trainieren oder nachtrainieren müssen oder wollen. Dann bietet es sich an, so was in der Cloud zu machen. Na klar, kann man auch lokal bei einem Kunden entsprechende Rechnerkapazität aufbauen. Aber die Frage ist, wenn es ein größeres Unternehmen ist, was eine globale Fertigung hat … dann ist es vielleicht sinnvoller, das in der Cloud zu trainieren. – Das Ergebnis daraus muss aber irgendwie wieder an die Maschine ran. Und der große Punkt ist, das muss auch so an die Maschine ran, dass der Servicetechniker Freitag Nacht um 22:30 Uhr den Soll-Wert findet und die Anlage wieder in Betrieb setzen kann.
 
Da leistet eine Industrial Edge direkt im Shopfloor, unter Umständen direkt im Schaltschrank, mit der Steuerung, die die Anlage steuert, einen ganz, ganz großen Wert. Wir haben heute schon unheimlich viele gute Konnektoren zu den bestehenden Steuerungen. Insofern können wir vieles von dem, was wir in den Anlagen finden, machen. Da hilft uns sicherlich auch ein großer Teil installierter Basis, auf den wir zurückgreifen können. Aber auch zu anderen Herstellern können wir schon ziemlich gute Verbindungen herstellen. Also, wo wir das dann verarbeiten, ist sehr stark abhängig von den Anforderungen des Kunden. Aber wenn wir zum Beispiel über künstliche Intelligenz sprechen, ist Training oftmals in der Cloud vonnöten.
 
Wir wollen auch ein bisschen über die Leistungsbewertung des ganzen Themas PLC oder Virtuelle PLCs sprechen. Zusammenfassend, was sind denn die Potenziale im Vergleich zu herkömmlichen PLCs?
Axel
Eine virtuelle PLC, die vollständig unabhängig ist von der Hardware, auf der sie läuft, kann völlig unabhängig selbst, in sich selber, optimiert werden. Und sie kann von den Leistungssteigerungen der Hardware direkt profitieren. Ein Embedded System braucht immer nach der Entwicklung einer neuen Prozessorgeneration eine Zeit, bis diese eindesignt ist – ein virtuelles System kann sofort mit der Hardware skalieren. Das ist ein maximaler Vorteil.
 
Darüber hinaus, in Zeiten der Cybersecurity kann ich bei großen Mengen dieser Steuerungen, dieser virtuellen Systeme, komplett virtualisiert in der Administration ganz andere Mechanismen einsetzen. Das kommt Unternehmen, die stark auf die IT-Umsetzung setzen, sehr entgegen. Sie können da viele Dinge nutzen.
 
Demgegenüber stehen natürlich auch Vorteile, die ich in einem Embedded System habe: Ich bin von Hause aus resilienter gegen viele Herausforderungen in der Cybersecurity. Ich bin sehr stark zugeschnitten auf die Applikation. Auch wenn in einer Cloud oder einer Company-Cloud, Firmen-Cloud ich eine Skalierung der Ressourcen habe, kann es immer sein, dass in Situationen, wo sehr viel Rechenleistung auf einmal, aufgrund eines Störungsfalles, bezogen wird, mir Rechenleistung für die einzelne Applikation fehlt. Dagegen, bei einer verteilten Rechenleistung auf verschiedene Controller ist der einzelne Controller für sich ausgelegt – da stört mich das erst mal nicht.
 
Im Moment sind das auch Gründe, warum die Kunden in den allermeisten Fällen, die ich erlebe, für die Kombination von beiden Lösungen entscheiden und sagen, ich möchte gerne für meine Kernprozesse, wo ich kein Risiko eingehen will, gerne eine herkömmliche Lösung – aber bitte kombiniere sie mir doch. Da kommen Factory Cloud, also Industrial Edge, und Cloudanwendung in Kombination sehr stark zum Zuge. Aber das kann zum Ende dieser Dekade ganz anders aussehen.

Ergebnisse, Geschäftsmodelle und Best Practices – So wird der Erfolg gemessen [28:59]

Wenn wir nun etwas auf den Business Case schauen. Am Ende ist auch das Geschäftsmodell interessant, womit alle rechnen können. Vor allem, wie entwickelt sich der Markt? Axel, ihr sprecht auch über PLC-as-a-Service-, Control-as-a-Service-Modelle … wie sieht denn hier das Geschäftsmodell beispielsweise für Siemens aus? Womit kann der Markt rechnen?

Axel

Wir sind heute schon bei dem Thema Industrial Edge, dass wir sagen, es gibt eine Management Fee, es gibt eine monatliche Gebühr. Also wir gehen da die neuen Modelle von Software-as-a-Service, von denen der Kunde absolut profitieren kann. Und diese neuen Modelle brauchen noch ein bisschen Zeit, denn nicht alle fühlen sich mit den Dingen wohl. Es gibt durchaus im Markt noch ein Bestreben, »ich hätte es gern einmal gekauft, und dann ist es meins« … ich glaube aber, da wird es auch ein Umdenken geben. Denn wenn man heutzutage ein Stück Software hat, egal auf welcher Hardware die läuft, dann muss man Softwareservice betreiben über die Zeit, und dann ist man ohnehin im Thema Service und Aktualisierung drin. Da kann ich mir vorstellen, dass sich Software-as-a-Service auch auf dem Automatisierungsbereich, sogar auf dem Shopfloor, durchsetzen wird – wird aber noch ein bisschen dauern.

 
Natürlich würde mich auch der Business Case in Richtung Saint-Gobain interessieren. Markus, wie sieht der für euch aus? Habt ihr da schon mal … eine Art Return-on-Invest-Kalkulation ist natürlich noch nicht möglich. Aber so in die Richtung gedacht, wo führt ihr das ein und wie ist der Business Case für euch?
Markus
Ja, klar, letztendlich, für alle unseren digitalen Entwicklungen, die wir hier bei uns in die Produktion einführen, müssen wir am Ende des Tages irgendeine Form von RoI-Kalkulation vorweisen können. Jetzt ist es relativ einfach bei uns – wir sind ein produzierendes Unternehmen, und leider gibt es, glaube ich, noch kein produzierendes Unternehmen, was überhaupt keine Verluste in der Produktion verzeichnet. Somit ist unsere RoI-Kalkulation als allerstes Mal über die Verluste, die wir letztendlich vermeiden, zu begründen. Und ich könnte mir sehr gut vorstellen, wenn wir über optimierte Prozesseinstellungen unseren Prozess optimieren, wir also effizienter werden, was unsere Hauptverluste angeht, wir vielleicht auch unseren Hauptbrennstoff, das Erdgas, einsparen können … damit lassen sich natürlich für uns handfeste RoI-Kalkulationen anstellen.
 
Schwieriger ist es bei den Themen wie der Resilienz, die ich eingangs erwähnte. Denn das ist so ein bisschen wie mit einer Versicherung. Man zahlt immer Geld in der Hoffnung, dass nie der Versicherungsfall eintritt – und so wäre das bei uns auch mit einer Edge Cloud oder einer reinen Cloudlösung, die wir einsetzen würden, um uns abzusichern, eben diese Redundanz zu schaffen. Denn am Ende des Tages hoffen wir natürlich, dass der Steuerungsausfall – in welcher Form auch immer – niemals eintritt. Da müsste man dann schon eher ein bisschen abwägen, wie der Kosten- und Nutzenfall da ist. Aber Potenzial sehe ich auf jeden Fall!
 
Man sichert sich ja vielleicht auch mit den angesprochenen hybriden Infrastrukturen ein Stück weit ab. Beziehungsweise es hängt dann auch an unterschiedlichen technologischen Auslegungen, die wir gerade schon so ein bisschen andiskutiert haben.
 
Markus, Zukunftsthema oder Realität, was würdest du aus deiner Brille sagen? Kommt das Thema in fünf Jahren, fünfzehn – oder morgen?
Markus
Vielleicht nicht heute, aber vielleicht auch nicht in zehn Jahren. Also ich glaube schon an diese Entwicklung, und wir bewegen uns ja mit dem, was wir mit Saint-Gobain machen, schon stark in diese Richtung. Wenn Axel von Docker spricht, wenn ich MQTT erwähne, dann sind das alles irgendwo Technologien, mit denen wir uns beschäftigen, die hier bei uns, bei Saint-Gobain, schon ihren Einsatz finden. Wir sind in der Lage, viele Millionen Datenpunkte pro Tag sehr, sehr performant zu persistieren, wieder darzustellen. Deswegen, ich glaube, wir haben schon einen guten Schritt in diese Richtung Digitalisierung, Industrie 4.0 und Cloud getan. Ich denke, wir sind bereit. Wenn Siemens in der Lage ist, uns in wenigen Jahren, oder vielleicht nicht erst zum Ende der Dekade, erste Lösungen anzubieten, dann würden wir das sehr gerne ausprobieren. Wir sind der Meinung, dass man das immer am direkt in der Produktion testet, weil das letztendlich ein Umfeld ist, wo man dann auch unmittelbar weiß, wie die Potenziale sich ergeben. Deswegen würde ich mich freuen, wenn wir an dem Thema dranbleiben und da vielleicht auch in der Lage wären, die ersten Versuche mit Siemens zusammen durchzuführen.
 
Axel
Prima, dann lass uns anfangen, gute Idee!
 
Axel, wann siehst du das Thema?
Axel
Ich glaube, dass wir alles haben, um loszulegen und anzufangen. Haben wir alles, was heute diskutiert worden ist, fertig als Produkt? – Nein, noch nicht ganz. Dauert noch einen Moment. Ich glaube, dass Ende dieser Dekade die Automatisierungswelt aber sehr anders aussehen wird. Und da stimme ich dem Markus zu. Vielleicht dauert es fünf Jahre; vielleicht ein bisschen länger. Aber ich sage mal, Ende der Dekade sieht die Welt anders aus!
 
Pierre
Dann ergänze ich auch noch mal aus der Forschungsbrille. Ich schließe mich dem an. Nicht heute; aber auch nicht in zehn Jahren. Die Technologien sind bereit. Man muss sich jetzt zusammensetzen und das Ganze mal umsetzen. Ich glaube, dass die Industrie sehr, sehr konservativ ist. Deshalb wird es da am Anfang langsam losgehen. Aber sobald die ersten Erfolge verzeichnet werden, wird sich dort ein Sog bilden, und dann kann sich eigentlich keiner mehr dagegen wehren.
 
Ich denke mal, wenn jemand Kontakt aufnehmen will, ihr seid alle offen für Gespräche?
Axel
Eventuell nutzt er auch die Zeit – wir sind auf der Hannover Messe in Halle 9!
 
Das ist auch richtig – kommt vorbei an den Ständen!

Für Rückfragen stehe ich Ihnen gern zur Verfügung.

Ing. Madeleine Mickeleit

Host & Geschäftsführerin
IoT Use Case Podcast