Ihr seid bei Siemens in ganz unterschiedlichen Industrien unterwegs. Kannst du ein paar Use Cases zusammenfassen, die in der praktischen Anwendung siehst?
Axel
Da gibt es eine Bandbreite. Da gibt es den Bereich der hybriden Systeme, wo wir eine installierte Steuerung, eine installierte PLC mit einem Factory-Edge-System kombinieren – ganz tolle Möglichkeiten mit Artificial Intelligence. Wo wir Predictive Maintenance machen können. Wo wir Visual Inspection machen können. Und wir können Optimierung und Produktivität für unsere Kunden in die Anlage bringen. Aber es gibt auch mittlerweile Anwendungen mit konkreten, deterministischen fail-safe Softwarecontrollern in der Anlage, wo wir wirklich auch sehr stark hardwareunabhängig arbeiten und auch ein anderes Spektrum der Hardware auslösen können. Bis hin zu richtig virtualisierten Controllern – die würde ich heute eher in einem Umfeld, was nicht so zeitkritisch ist, einsetzen. Aber auch da gibt es tolle Anwendungen: Denken wir mal an ein großes Wassernetz, wo ich die virtuelle Welt mit der realen Welt parallel laufen lassen kann und die Simulation mir überprüft, wie müsste sich meine Anlage gerade darstellen? Und wenn sie es nicht tut, erhalte ich klare Hinweise, an welcher Stelle es ein Problem gibt.
Also da gibt es verschiedene Anwendungen über verschiedene Branchen und Anwendungsfälle der Kunden, mit unterschiedlichen spezifischen Herausforderungen.
Pierre, ihr arbeitet auch in der Forschung selbst an unterschiedlichen Use Cases. Kannst du ein bisschen aus Forschungssicht ergänzen, welche Use Cases du siehst?
Pierre
Ich würde direkt anknüpfen: Diese verschiedenen Ebenen und dass es die Edge-Cloud ergänzt und mehr Funktionalität reinbringt in die PLC. Da würde mir als Beispiel Inline-Qualitätsmessung bei Werkzeugmaschinen zum Beispiel einfallen. Wir hatten in einem Projekt die Maschine ausgerüstet mit der tollsten Sensorik, die wir einbauen konnten – Acoustic-Emission-Sensor-Daten ohne Ende. Dann ist uns irgendwann aufgefallen: Oh, verarbeiten können wir die Daten … aber wie spielen wir die noch mal zurück? Wie können wir das wirklich nutzbar machen? Dann haben wir Stück für Stück Iterationen durchgespielt, wo die Vernetzung immer weiter vorangetrieben worden ist. Dann haben wir gemerkt, wir brauchen die Recheninfrastruktur, die Power. Dann sind wir in die Edge Cloud reingegangen, in die Factory Cloud. Dann ist uns aufgefallen, wir müssen das wieder zurück in die Maschine spielen; mussten dort Feldbus-Protokoll-Adapter entwickeln, irgendwie an die SPS rankommen, um dann am Ende zu sehen: Das ist alles instabil, latenzkritisch und sollte nicht so funktionieren.
Deswegen haben wir das Thema jetzt groß aufgerollt. Es ist wahnsinnig spannend, denn Inline-Qualitätskontrolle wird die Mängel, die bei der Fertigung entstehen, so weit runterschrauben, gerade bei teuren Bauteilen. Das ist immens interessant. In vielen Fällen könnte man sich den Weg ins Messlabor sparen – was Zeit einspart. Was die Techniker sich auf andere Aufgaben fokussieren lässt. Was Werkzeugmaschinen einsparen lässt. Und was einfach durchweg nachhaltiger ist, weil weniger Ausschuss produziert wird.
Weiter, wenn die Steuerung wirklich ausgelagert wird in die Cloud, diese zweite Iterationsebene, da finden wir es spannend, uns Kooperationen anzuschauen. Also zwei virtualisierte Robotersteuerungen – da ist es ja naheliegend, dass, wenn die beide auf einer Plattform laufen, dass man dort eine Komponente integrieren kann, eine Softwarekomponente, die eine Kooperation ermöglicht, wo vorher kabelgebundene Strecken aufgebaut werden mussten … hardgecodet, harte Bahnplanung, was das alles sehr inflexibel macht. Diese Kooperation, dieser Gedanke kann weitergetrieben werden. Mensch an Roboter, Mensch an Maschine, Roboter an Maschine und so weiter. Wir haben auf einmal eine ganze Spielwiese, die virtuell betrieben wird und unabhängig von der Hardware ist.
Tauchen wir mal in die Praxis ein. Markus, mich würde der Status quo bei euch vor Ort interessieren. Wir befinden uns in der Glasherstellung auf eurem Shopfloor: Wie muss man sich euren täglichen Job vorstellen und wie sieht so ein klassischer Shopfloor bei euch aus?
Markus
Ihr müsst euch das so vorstellen, wir haben einen der heißesten Jobs in Deutschland. Bei circa 1600 Grad verarbeiten wir unterschiedliche Rohstoffe: Sand, Soda, Dolomit und natürlich auch Scherben … zu unserem neuen Basisglas. Was dann der Rohstoff, oder das Ausgangsprodukt, für unsere Schwestergesellschaft Saint-Gobain Sekurit ist, die daraus Automobilglas herstellt. Was sehr wichtig ist: Unsere Anlagen laufen bis zu zwanzig Jahre kontinuierlich durch. Das heißt, wir stoppen unsere Produktion niemals! Das ist natürlich wichtig, wenn man sich überlegt, dass innerhalb von zwanzig Jahren natürlich sehr viele steuerungstechnische Innovationen stattfinden, über die wir auch gerade diskutieren. Das wollen wir natürlich auch alles in unsere Produktionsanlage bringen, um hier Vorteile im Hinblick auf Innovation und Digitalisierung erschließen zu können.
Die beiden hatten gerade schon so ein paar Use Cases angesprochen. Einmal das alles zur Qualitätskontrolle, aber auch so was wie, man spart sich irgendwo Wege, man spart sich Zeit, um dieses Thema Virtuelle PLC anzugehen. Was sind denn so Herausforderungen, die IHR habt auf dem Shopfloor?
Markus
Ich sehe hauptsächlich drei Herausforderungen, oder Anwendungsfälle, die man mit einem solchen Thema bedienen könnte. Ich habe ja gerade schon gesagt, dass unsere Anlagen zwanzig Jahre kontinuierlich laufen müssen. Das heißt, dass insbesondere Anforderungen an die Resilienz gestellt werden. Wir haben bis jetzt überall redundante Steuerungen verbaut. Ich könnte mir vorstellen, dass über eine Steuerung in der Cloud – die ja letztendlich virtuell vervielfältigbar ist – ein solches Thema der Resilienz wesentlich BESSER abgedeckt werden könnte.
Weitere Anwendungsfälle, die ich mir vorstellen kann, sind einmal der Retrofit. Wie gesagt, in zwanzig Jahren passiert sehr viel. Wir müssen natürlich immer sicherstellen, dass unsere jetzigen Steuerungsprogramme auch mit den neuen Generationen harmonieren. Man könnte sich also vorstellen, dass man schon vorher virtuell in der Cloud … unsere jetzigen Steuerungsprogramme in einem virtuellen Modell validiert, bevor wir sie in die Realität umsetzen. Und nicht zuletzt sind für uns natürlich auch nicht nur die Brownfield-Applikationen interessant. Auch WIR bekommen neue Anlagenteile. Da ist es natürlich sehr wichtig für uns, zusammen mit den Integratoren, dann hier neue Maßstäbe für Digitalisierung und Steuerungstechnik zu setzen.
Das heißt, deine primären Einsatzmöglichkeiten oder Potenziale, die du siehst, sind sozusagen die Virtualisierung der Steuerung im Hinblick auf Resilienz, aber auch auf Retrofit – das sind so die größten Potenziale?
Markus
Auf jeden Fall, genau.
Wenn wir noch mal ein Stück weiter gehen, geht es ja auch irgendwo um Daten, Datenquellen, die relevant sind, um so etwas abzubilden. Vielleicht mal auch aus der Praxis gefragt: Was sind Daten, die für euch besonders spannend sind? Geht es um Qualitätsmanagement oder sind das andere Daten?
Markus
Ich sage mal, an Datenquellen … man muss sich das so vorstellen: Unsere größte Datenquelle ist das Prozessleitsystem. Aber was so ein bisschen schade ist, auch heute bauen wir eigentlich noch auf Kommunikationstechnologien, die aus den Neunzigern sind. Das heißt, unsere typische Kette sieht so aus, dass wir die Datenquellen per OPC DA anbinden, dann vielleicht per Wrapper an OPC UA übersetzen und dann erst langsam in eine Welt kommen, wo wir MQTT sprechen … wo wir hochperformant Daten übermitteln können und uns dann im sogenannten Industrial IoT bewegen. Da wäre es natürlich für uns sehr wünschenswert, wenn wir eben nicht diese Kette so lang aufbauen müssten und sehr viele Schnittstellen haben, um letztendlich die neuen Protokolle des Internet of Things sprechen zu können. Sondern hier nativ diese Schnittstellen von neuen Steuerungen in der Cloud mit den entsprechenden Adaptern bekommen zu können.
Hast du da ein Beispiel aus einem Prozess bei euch? Ihr habt in der diskreten Fertigung ganz unterschiedliche Prozesse.
Markus
Ihr könnt euch das so vorstellen: Wir haben ja einen riesengroßen Schmelzreaktor, wo diese hohen Temperaturen herrschen. Darin ist auch ganz viel Regelungstechnik verbaut, um die Gasverbrennung und den gesamten Prozess zu steuern. Regler werden ja typischerweise irgendwo in der Auslegungsphase einer Anlage dimensioniert und dann vielleicht noch so ein bisschen bei der Inbetriebnahme feingetunt. Aber was wir merken, ist natürlich, dass so was nicht über zwanzig Jahre funktioniert. Sondern man muss da auf jeden Fall noch mal die Regler neu überarbeiten. Das findet heute viel im System an sich statt.
Was uns sehr helfen würde, wäre, wenn man eben die ganzen Informationen aus dem Prozess mit den aktuellen Reglerparametern in die Cloud bringen würde, dort letztendlich ein virtuelles Modell aufbaut, an dem man neue Reglerparameter testen, evaluieren kann – und diese dann virtuell getestet wieder zurück in den Produktionsbereich gibt. Wir sprechen heute auch schon von Edge Cloud, von Edge Devices. Also wir sind durchaus in diesem Themenfeld unterwegs; haben die Voraussetzungen geschaffen. Aber die vollständige Verbindung vom Shopfloor mit der Edge und dann mit der Cloud ist so in der Form noch nicht vorhanden. Auch weil: bis jetzt noch nicht möglich.
Das heißt, auch da könnte man solches Reglerverhalten virtuell testen und einfach vielleicht optimieren. Denn man hat es ja irgendwann mal festgelegt, und der nächste Schritt wäre, das mal zu hinterfragen und dafür die Daten bereit zu haben, oder?
Markus
Genau. Wir sagen immer, wir sprechen in zwei Kreisen, wenn man so möchte: Das eine ist der schnelle Reglerkreis, der letztendlich zur Ausführung kommt, wo ich nur noch meine entwickelten Regler, meine entwickelten Modelle anwende, um in der Produktion schnell zu sein – was Echtzeitfähigkeit, Reaktion angeht. Und ich habe meinen Optimierungszyklus, der dann vielleicht über die Cloud läuft, wo ich Daten analysieren und optimierte Einstellungen ergründen kann. Vielleicht auch mit neuen Methoden der künstlichen Intelligenz oder Mustererkennung.
Axel, kennst du solche Use Cases auch von anderen Kunden?
Axel
Absolut! Und wir versuchen, die Kette zu schließen, indem wir im Rahmen von, zum Beispiel bei uns Industrial Edge, Konnektoren zu verschiedenen Feldsystemen – sei es unsere Steuerung, das wäre dann die Simatic, oder Steuerungen oder Komponenten von Mitbewerbern – über eine App direkt anzuschließen. Damit man die Daten möglichst vollständig, zeitnah und schnell bekommen kann. Man kann sie in der Indusrial Edge aufbereiten, selektieren, oder man kann sie auch direkt weiterleiten. Dazu haben wir dann den nächsten Konnektor, MQTT. Das alles sind Apps in Docker, sodass ein Kunde sie sehr leicht handhaben kann und sich auch sicher sein kann, dass die Komponenten für sich erst mal funktionieren.
Damit versuchen wir den Weg zu schließen, um genau die Anforderungen, die Markus beschreibt, hantierbar und verteilbar zu machen. Und dem Kunden auch die Möglichkeit zu geben, wenn ein Case zu seiner Zufriedenheit funktioniert, diesen auch auf verschiedene Werke, auf verschiedene Controller ausrollen zu können. Weil wir auch ein entsprechendes Managementsystem für diese Runtime und für die Apps zur Verfügung stellen. Damit bringen wir das dann letztendlich auch in einen Produktzustand, der unseren Kunden hilft – in dem Fall vielleicht auch Markus –, solche Lösungen zu applizieren.
Markus, jetzt haben wir von Axel ein bisschen die Markt- und Produktsicht ein bisschen bekommen. Was sind Forderungen von euch als Endkunde, die ein solches System mitbringen muss? Geht es da primär um dieses Schnittstellenmanagement?
Markus
Von … bis. Ich muss erst mal die Schnittstelle haben, um diese Konnektivität herzustellen. Eines der wichtigsten Themen im Industrial Internet of Things. Aber danach spielen auch viele andere Themen eine Rolle: Nicht zuletzt auch irgendwo ein Service Level Agreement. Ich würde mich total freuen, wenn wir mit Axel mal in diese Richtung gehen können, das vielleicht mal ausprobieren können, was heute, Stand der Technik, möglich ist an innovativen Steuerungstechniken. Aber am Ende des Tages muss Axel für mich auch 24/7 erreichbar sein.
Das heißt, ich sehe hier einen großen Punkt bei den Integratoren, die heutzutage noch so zwischen den Anbietern – den Großen, den Siemens – und uns als Endanwendern stehen, um letztendlich diese Technologien in den Markt zu bringen und auch uns Endanwendern, Saint-Gobain, vollumfänglich unterstützen zu können. Hier würde ich mich natürlich freuen, wenn die Integratoren eine noch stärkere Rolle einnehmen und mit in diese neuen Technologien, die Axel beschreibt, gehen würden.
In die Forschungsrichtung geschaut, Pierre. Mich würde interessieren, an welchen Forschungsfragen arbeitet ihr zu diesem Thema, um das anzugehen?
Pierre
Der erste Punkt, der sich schon herauskristallisiert hat, ist meiner Meinung nach die Standardisierung. Bei fünf verschiedenen Herstellern kann man sich sicher sein, dass heute alle unterschiedliche Protokolle sprechen und unterschiedliche Schnittstellen bereitstellen – was es natürlich sehr, sehr kompliziert macht, die alle miteinander zu vernetzen. Auch die Integration einer Cloud ist sehr, sehr schwierig bei heutigen Feldbus-Systemen. Ich glaube, da muss noch viel nachgearbeitet werden. Die Industrie muss sich auf einzelne Standards einigen, die dann auch übergreifend, und herstellerübergreifend, genutzt werden können.
Dann natürlich das klassische Thema Datensouveränität. Darauf will ich gar nicht zu tief eingehen. Die Industrie legt großen Wert darauf, dass die Daten dort bleiben, wo sie sein sollen, da entsprechendes IP (Intellectual Property) ausgelesen werden kann. Wenn nun ein herstellender Betrieb seine Produktion mit Vibrationssensoren ausstattet, und die Daten fließen raus, dann kann man aus den Daten im schlimmsten Fall reproduzieren, wie der Prozess verlaufen ist, und das Ganze dann nachstellen – was dann natürlich ein Problem für den Betrieb darstellt, weil sein Alleinstellungsmerkmal verschwunden ist.
Bezüglich der Infrastruktur hatte ich am Anfang ja schon zwei Themen angeschnitten: Datenübertragung und Computing. In beiden Fällen muss entsprechend den Anforderungen eine Echtzeit ermöglicht werden; Echtzeit im Sinne der determinierten Übertragung von Nachrichten oder des entsprechenden Rechnens. Ich glaube, da gibt es schon gute Ansätze im Bereich Technologie. Das muss aber noch weiter vorangetrieben werden. Auch noch mal der Kontext Standardisierung ist wichtig, dass die Industrie in einen Bereich einsteigt und dort fokussiert – ansonsten gibt es wieder viele verschiedene Insellösungen und dieses Gesamtkontinuum, was man ja dafür braucht … das fällt weg.
Einen letzten Punkt habe noch: die Verantwortung. Der ist auch ganz, ganz wichtig. Wir erweitern den Kreis der Hardwaresysteme von einem Meter verbaut in der Maschine hin zu dreißig Meter in den Severraum hinein … Die Frage ist: Was passiert beim Ausfall? Wer ist verantwortlich? – Derjenige, der die Kommunikationsstrecke aufbaut? Der, der die End-Devices aufbaut? Der, der die Recheninfrastruktur, die Applikation, die Maschinenanbindung und so weiter … ? Das kann man sehr feingranular aufbauen; das ist ein sehr großes Thema.
Vielleicht so ein bisschen der Blick in die Realität beziehungsweise auch in die Zukunft. Was ist denn jetzt der Status? Gibt es das Thema Virtuelle Steuerung schon? Wenn nicht, warum macht man das heute noch nicht? Was ist die Herausforderung mit der Umsetzung heute?
Pierre
Das Thema ist da und wird auch angegangen. Trotzdem ist die Industrie sehr konservativ, sage ich mal. Vielleicht eine kleine Anekdote: Mein Studium ist noch nicht so lange her. Dort habe ich im Bereich Regelung noch gelernt, wie man aus einer Sprungantwort, einem Geodreieck und einer Parametertabelle einen Regler auslegt – in Zeiten von künstlicher Intelligenz, Big Data und was weiß ich nicht alles, ist das natürlich nicht mehr zeitgemäß. Trotzdem, Hersteller bieten heutzutage immer mehr Anbindungsmöglichkeiten. Eine SPS hat verschiedene Schnittstellen. Es gibt Erweiterungsmodule. – Aber das Gesamtkonzept fehlt noch. Da gehört nicht nur die Verantwortungsfrage dazu, sondern auch, den Loop zu schließen, wieder zurück, einzelne Plattformen da reinzubringen, dass eben nicht nur Hersteller 1 alle drei Komponenten liefern kann, sondern dass vielleicht auch Komponente 2 von Hersteller 2 da eingebracht werden kann. Ich glaube, die Gesamt-Infrastruktur muss da noch aufgezogen werden; einzelne Komponenten, einzelne Probleme sind schon in der Lösung. Hier müssen sich noch mal alle zusammenfinden.
Wieder in die Praxis gesprungen; ihr habt das vorhin so schön gesagt, man bringt die Daten erst mal aus einer alten Steuerungs-Infrastruktur, sei es OPC DA, irgendwo ins UA. Das sind viele Insellösungen; das ist eine Herausforderung mit der Standardisierung. Wenn ich das Thema wirklich angehen will, morgen anfangen will, daran zu arbeiten, wie funktioniert denn dann die Datenaufnahme? Wie komme ich überhaupt an die Daten aus herkömmlichen PLCs?
Pierre
Viele der Anforderungen, die wir heute diskutiert haben, können wir angehen. Zum Beispiel mit einem Industrial Edge können wir sehr viele Daten aus der PLC sehr zeitnah rausholen, im Shopfloor vorverarbeiten, in die Cloud schicken. Die Zahl der Konnektoren, damit wir verschiedene Hersteller aus dem Shopfloor anbinden können, um die Daten zusammenzusammeln und sofort zu verarbeiten. Oder die Möglichkeit, Daten zum Beispiel aus einem AI-Modell runterzubringen aus der Cloud in den Shopfloor. Diese Möglichkeiten haben wir heute; das können wir heute einsetzen.
Wir haben sehr leistungsfähige Software-Controller, die wir damit kombinieren können. Den gesamten Zustand hinzukriegen, also was wir auch im Endausbau diskutiert haben … können wir nicht die Steuerung komplett in der Cloud ablaufen lassen und können wir nicht, um die Resilienz zu erhöhen, mehrere Steuerungen gleichzeitig ablaufen lassen? Wie sieht es dann aus mit der kompletten Deterministik? Wie funktionieren dann Anforderungen mit Fail-safe? Wie weit ist als Produktportfolio vorhanden, dass auch ein Partner irgendwo auf der Welt mit diesem Baukasten eine Lösung bauen kann, für die er die Verantwortung übernimmt? Da müssen wir noch ein Stück gehen. Da sind wir dran. Das halten wir für ein wichtiges Ziel, das wir angehen müssen.
Da freuen wir uns auch auf die Zusammenarbeit auf der einen Seite mit der Forschung, die uns Wege aufzeigt, wie man es machen kann, und auf der anderen Seite mit Kunden, die bereit sind, mit uns ein Proof of Concept zu machen – aber der Proof of Concept reicht nicht. Am Ende muss ein Produktportfolio her. Denn es müssen auch wieder die Partner, mit denen wir zusammenarbeiten in der ganzen Welt, eingebunden werden, um dann die Lösungen wiederholbar im Markt herzustellen. Das ist für uns eine tolle Aufgabe, bei der es sich lohnt, daran zu arbeiten in den nächsten Quartalen. Ich bin ganz gespannt, wie wir da vorankommen werden!
Wie funktioniert denn die Datenverarbeitung aus dieser Hardwareschicht in die nächste Ebene? Pierre, wie macht ihr das und wo gehen die Daten dann hin?
Pierre
Klassischerweise hat man spezifische Hardware, die darauf ausgerichtet ist, zügig Daten verarbeiten zu können, Anwendungen auszuführen, Steuerungsalgorithmen durchzuführen. Was man heute nutzt, oder gerne nutzen würde, wäre Standardhardware. Die auch Cloudprovider und so weiter standardmäßig verbauen. PCs, die sowieso im Shopfloor sind und so weiter. Die sind aber nicht auf die Echtzeit ausgelegt. Da arbeiten wir mit verschiedenen Virtualisierungsmöglichkeiten: Hypervisor, CPU Pinning, ähnliche Methoden. Um klar festzulegen, welche Rechenressourcen für welche Applikation da sind. Klar, könnten wir die Hardware durchweg noch mal echtzeitfähig machen. Spannend wäre aber auch, wenn das parallel laufen kann. Wenn nicht echtzeitkritische Applikationen parallel zu Echtzeit-Applikationen laufen, das ist, A, super, weil wir die Infrastruktur, die wir vor Ort haben, nutzen können, verschiedene Knoten nutzen, also redundant ausführen – das Thema Resilienz kam eben schon dran. Und natürlich auch im Bezug der Nachhaltigkeit. Warum müssen wir überall neue Rechensysteme aufstellen, die dann zu dreißig Prozent genutzt werden, wenn wir einfach mal die Infrastruktur nutzen, die wir schon haben vor Ort, und dann dynamisch die einzelnen Softwareapplikationen hin- und herspielen, je nachdem, wo es benötigt wird und wo gerade Ressourcen da sind?
Wir selber als IPT arbeiten auf verschiedenen Ebenen. Wir haben die Fraunhofer Edge Cloud. Das ist ein Serversystem, was bei uns lokal steht, was wir auf Echtzeit trimmen. Gehen aber runter Richtung PCs, die wir dann preampen und dort testen, aber auch auf Edge-Hardware, die dann von verschiedenen Herstellern bereitgestellt wird, wo wir das entsprechend testen und validieren.
Zum Thema Cloud, du hast schon verschiedene Provider und Möglichkeiten angesprochen. Es geht auch am Ende darum, die Daten auszuwerten. Markus hat vorhin von bestimmtem Reglerverhalten gesprochen, was optimiert werden kann. Wie und wo ist denn diese Datenauswertung möglich? Mache ich das auf der Edge? Mache ich das alles an der Cloud? Jeder hat sein eigenes System?
Axel
Das hängt ziemlich stark von den Anforderungen des Kunden und von der Applikation ab. Eine Datenvorverarbeitung im Shopfloor ist auf jeden Fall möglich, wenn wir Machine Learning machen oder Artificial Intelligence nutzen wollen und die Modelle trainieren oder nachtrainieren müssen oder wollen. Dann bietet es sich an, so was in der Cloud zu machen. Na klar, kann man auch lokal bei einem Kunden entsprechende Rechnerkapazität aufbauen. Aber die Frage ist, wenn es ein größeres Unternehmen ist, was eine globale Fertigung hat … dann ist es vielleicht sinnvoller, das in der Cloud zu trainieren. – Das Ergebnis daraus muss aber irgendwie wieder an die Maschine ran. Und der große Punkt ist, das muss auch so an die Maschine ran, dass der Servicetechniker Freitag Nacht um 22:30 Uhr den Soll-Wert findet und die Anlage wieder in Betrieb setzen kann.
Da leistet eine Industrial Edge direkt im Shopfloor, unter Umständen direkt im Schaltschrank, mit der Steuerung, die die Anlage steuert, einen ganz, ganz großen Wert. Wir haben heute schon unheimlich viele gute Konnektoren zu den bestehenden Steuerungen. Insofern können wir vieles von dem, was wir in den Anlagen finden, machen. Da hilft uns sicherlich auch ein großer Teil installierter Basis, auf den wir zurückgreifen können. Aber auch zu anderen Herstellern können wir schon ziemlich gute Verbindungen herstellen. Also, wo wir das dann verarbeiten, ist sehr stark abhängig von den Anforderungen des Kunden. Aber wenn wir zum Beispiel über künstliche Intelligenz sprechen, ist Training oftmals in der Cloud vonnöten.
Wir wollen auch ein bisschen über die Leistungsbewertung des ganzen Themas PLC oder Virtuelle PLCs sprechen. Zusammenfassend, was sind denn die Potenziale im Vergleich zu herkömmlichen PLCs?
Axel
Eine virtuelle PLC, die vollständig unabhängig ist von der Hardware, auf der sie läuft, kann völlig unabhängig selbst, in sich selber, optimiert werden. Und sie kann von den Leistungssteigerungen der Hardware direkt profitieren. Ein Embedded System braucht immer nach der Entwicklung einer neuen Prozessorgeneration eine Zeit, bis diese eindesignt ist – ein virtuelles System kann sofort mit der Hardware skalieren. Das ist ein maximaler Vorteil.
Darüber hinaus, in Zeiten der Cybersecurity kann ich bei großen Mengen dieser Steuerungen, dieser virtuellen Systeme, komplett virtualisiert in der Administration ganz andere Mechanismen einsetzen. Das kommt Unternehmen, die stark auf die IT-Umsetzung setzen, sehr entgegen. Sie können da viele Dinge nutzen.
Demgegenüber stehen natürlich auch Vorteile, die ich in einem Embedded System habe: Ich bin von Hause aus resilienter gegen viele Herausforderungen in der Cybersecurity. Ich bin sehr stark zugeschnitten auf die Applikation. Auch wenn in einer Cloud oder einer Company-Cloud, Firmen-Cloud ich eine Skalierung der Ressourcen habe, kann es immer sein, dass in Situationen, wo sehr viel Rechenleistung auf einmal, aufgrund eines Störungsfalles, bezogen wird, mir Rechenleistung für die einzelne Applikation fehlt. Dagegen, bei einer verteilten Rechenleistung auf verschiedene Controller ist der einzelne Controller für sich ausgelegt – da stört mich das erst mal nicht.
Im Moment sind das auch Gründe, warum die Kunden in den allermeisten Fällen, die ich erlebe, für die Kombination von beiden Lösungen entscheiden und sagen, ich möchte gerne für meine Kernprozesse, wo ich kein Risiko eingehen will, gerne eine herkömmliche Lösung – aber bitte kombiniere sie mir doch. Da kommen Factory Cloud, also Industrial Edge, und Cloudanwendung in Kombination sehr stark zum Zuge. Aber das kann zum Ende dieser Dekade ganz anders aussehen.