In dieser Episode des IoT Use Case Podcasts spricht Host Dr. Peter Schopf mit Bastian Erb, Director Production Engineering bei Vetter Pharma, und Fabian Fitzer, Team Lead Consulting bei soffico. Im Fokus steht die Frage, wie sich hochregulierte Produktionsprozesse in der Pharmaindustrie digitalisieren lassen – mit klaren Prozessen, Governance und einem gemeinsamen Zielbild statt technologiegetriebenem Aktionismus.
Folge 200 auf einen Blick (und Klick):
Podcast Zusammenfassung
Wie gelingt Digitalisierung in der Pharmaindustrie unter GMP-Bedingungen? Vetter Pharma und soffico zeigen in dieser Folge, wie IT-/OT-Integration auch in stark regulierten Umgebungen nachhaltig umgesetzt werden kann.
Die Ausgangslage: papierbasierte GMP-Dokumentation, hohe manuelle Aufwände, heterogene Maschinen- und Laborsysteme sowie strenge Anforderungen an Datenintegrität, Validierung und Auditierbarkeit. Gleichzeitig fehlte eine skalierbare Datenbasis für zukünftige Use Cases.
Der Ansatz: eine zentrale Datenintegrationsarchitektur mit der Orchestra-Plattform von soffico. Statt Punkt-zu-Punkt-Anbindungen setzt Vetter auf eine standardisierte, dreistufige Architektur für OT-, Aggregations- und IT-Ebene. QA, Validierung und Betrieb wurden von Beginn an integriert. Automatisierung über Kubernetes und CI/CD ermöglicht Skalierung bei gleichbleibender Compliance.
Das Ergebnis: weniger manuelle Prüfungen durch „Review by Exception“, konsistente Daten für MES-, LIMS- und Analytics-Anwendungen und eine belastbare Basis für datengetriebene Optimierungen bis hin zu KI-Anwendungen.
Die Folge richtet sich an Verantwortliche in regulierten Industrien, die IT/-OT-Integration strategisch und langfristig umsetzen wollen.
Podcast Interview
Heute im IoT Use Case Podcast: Wie man in der Pharmaindustrie hochregulierte Produktionsprozesse stabil und digital bekommt. Entscheidend ist dabei, nicht mit Technologie als Startpunkt zu beginnen, sondern mit einem klaren Prozess und einem Zielbild. Zu Gast sind Bastian Erb, Director Production Engineering bei Vetter Pharma, und Fabian Fitzer, Team Lead Consulting bei soffico. Unser Gespräch zeigt, dass langfristiges Denken, klare Verantwortlichkeiten und ein gemeinsames Zielbild oft stärker wirken als einzelne Technologieentscheidungen. Viel Spaß beim Zuhören.
Heute haben wir zwei spannende Perspektiven im Podcast: Vetter Pharma – wichtig, geschrieben mit V – eines der weltweit führenden Unternehmen für sterile Abfüll- und Verpackungsanlagen in der Pharmaindustrie. In der Fachsprache würde man wahrscheinlich „aseptisches Fill and Finish“ sagen. Also eine sehr reglementierte Industrie, weil es dabei auch um unsere Gesundheit geht. Außerdem haben wir soffico mit ihrer Plattform Orchestra dabei, die komplexe IT-/OT-Datenflüsse unter Berücksichtigung der Regularien sauber abbilden kann. Bastian, zu dir zuerst: Würdest du dich kurz vorstellen und erklären, welche Themen du heute mitbringst?
Bastian
Mein Name ist Bastian Erb, ich bin Abteilungsleiter der Produktionstechnik bei Vetter Pharma. Wie du schon gesagt hast, Peter: Wir sind ein führender CDMO im pharmazeutischen Bereich. Das heißt, wir sind Lohnabfüller für große Big-Pharma-Unternehmen, aber auch für kleinere Firmen. Wir übernehmen die sterile Abfüllung von Injektabilia. Wir bieten den End-to-End-Prozess an: Wir starten in der frühen klinischen Phase mit Entwicklungsarbeiten zusammen mit unseren Kunden, begleiten sie auf dem Weg zur Kommerzialisierung und übernehmen den Fill-and-Finish-Prozess bis zur Endverpackung. Das heißt: Wir füllen für unsere Kunden ab, machen die optische Kontrolle der Einheiten, übernehmen die Endverpackung und bieten außerdem Labordienstleistungen an, die unsere Kunden entlang ihres Weges unterstützen.
Kannst du kurz sagen, wie das seit Corona bei euch gelaufen ist? Da gab es ja insgesamt eine ziemliche Berg- und Talfahrt, und bei euch wirkte das von außen eher wie ein starker Aufwärtstrend.
Bastian
Die Corona-Zeit hat uns als Vetter gar nicht so stark aus dem Standard herausgebracht. Unser Fokus liegt stark auf Produkten, die nicht dem klassischen Impfstoffbereich entsprechen, also eher hochpreisige Produkte. Die haben während Corona nicht stark zugenommen. Corona war vor allem ein Impfstoffthema mit Massenproduktion, und unser Portfolio ist dort relativ konstant geblieben. Wir haben keinen großen Aufschwung dadurch erfahren. Aber man sieht an unseren Zahlen, dass wir insgesamt ein sehr erfolgreiches Unternehmen sind und dass der Markt diese Dienstleistung zunehmend erfordert. Das ist ein stark wachsender Markt. Wir können uns inzwischen mit knapp 24 Reinräumen auf ein großes Maschinenportfolio stützen. Wir sind in den letzten Jahren stark gewachsen, werden auch in den nächsten Jahren weiter wachsen, und deshalb ist Digitalisierung für uns ein sehr wichtiger Faktor. So sind wir auch gemeinsam mit soffico eine längere Reise gegangen.
Hört sich gut an. Wo sitzt du gerade, Bastian, und wo habt ihr Standorte?
Bastian
Wir sind aktuell stark im süddeutschen Raum angesiedelt. Unsere Homebase ist Ravensburg. Dort sowie in Langenargen am Bodensee betreiben wir drei aseptische Abfüllstandorte. Zusätzlich haben wir ein großes Logistikzentrum im Raum Ravensburg. Der Großteil unserer Aktivitäten spielt sich also innerhalb eines Radius von etwa 20 Kilometern rund um Ravensburg ab. Darüber hinaus haben wir einen Forschungsstandort in Rankweil in Österreich sowie einen weiteren in Chicago in den USA. Die kommerzielle Produktion kommt jedoch klar aus dem süddeutschen Raum rund um Ravensburg.
Bevor wir da jetzt tiefer einsteigen, Fabian, vielleicht auch kurz zu dir.
Fabian
Mein Name ist Fabian Fitzer von soffico. Ich bin dort im Bereich IT Consulting tätig und leite ein Team. soffico ist in erster Linie Softwarehersteller einer Standardsoftware namens Orchestra. Orchestra ist eine Low-Code-Connectivity-Plattform, mit der wir OT- und IT-Systeme herstellerunabhängig integrieren können. Dafür bietet Orchestra Standardadapter sowohl für die Maschinenintegration als auch für verschiedene IT-Systeme. Im OT-Bereich sprechen wir über Protokolle wie OPC UA, Modbus oder MQTT, im IT-Bereich über REST, SOAP oder Datenbanken. Wir integrieren diese Systeme im Backend und können Prozessflüsse grafisch modellieren, beliebig komplex gestalten und anschließend skalierbar ausrollen. Im Grunde lassen sich damit nahezu alle datengetriebenen Use Cases umsetzen, während die Daten im Hintergrund zuverlässig transportiert werden. Aufbauend auf dem Produkt Orchestra bieten wir auch Dienstleistungen an. Damit bin ich bei meinem Bereich, dem Consulting. Das bedeutet, wir unterstützen unsere Kunden in Integrationsprojekten von der Architektur über das Solution Design bis hin zur Implementierung über alle Projektphasen hinweg. Kunden können natürlich auch selbst mit Orchestra arbeiten, was sie auch gerne tun. Wenn Unterstützung benötigt wird, kommen wir ins Spiel. Ich selbst bin seit fünf Jahren bei soffico und war in vielen großen Projekten tätig, als technischer Projektleiter, als Architekt und in der Implementierung. Mein Fokus liegt stark auf der Pharmaindustrie, ich habe aber auch in anderen Branchen wie Automotive oder Elektronikindustrie gearbeitet. Mit Vetter sind wir nun seit mehreren Jahren im Projekt, darüber können wir uns jetzt genauer unterhalten.
Auf jeden Fall, das wird super spannend. Eine Schwierigkeit ist ja auch, wie du angesprochen hast: Man kann sehr viel machen, man hat sehr viele Daten. Daher die Frage an dich, Bastian: Wo habt ihr mit der IT-/OT-Integration angefangen? Welche Daten nutzt ihr und was ist eure Zielstellung?
Bastian
Wir haben 2022 gemeinsam mit soffico die ersten Evaluierungen gestartet. Wir kommen aus einem stark regulierten Umfeld, deshalb sind Daten für uns eines der höchsten Güter. Wir müssen die Datenintegrität sicherstellen, verstehen, was mit unseren Daten passiert, sie interpretieren und ihre Qualität gewährleisten. Aus diesem Grund haben wir uns seit 2022 in mehreren Iterationsschritten einer zielgerichteten und skalierbaren Architektur angenähert. In diesem Jahr haben wir einen großen Meilenstein erreicht und befinden uns in der Finalisierung unserer Konzeptionsphase. Wir wissen inzwischen, wie unsere skalierbare Architektur aussieht, und wir wissen, dass der Prozess mit soffico und Orchestra funktioniert. Wir haben verschiedene Use Cases identifiziert, die etwa 80 bis 90 Prozent unseres Shopfloors repräsentativ abbilden. Deshalb haben wir uns bewusst viel Zeit genommen, um die Architektur sauber zu definieren, anstatt mit den ersten Use Cases sofort live zu gehen. soffico hat uns dabei sehr gut unterstützt. Wir konnten voneinander lernen, und es war auch spannend, Einblicke in die Pharmaindustrie und andere Industriezweige zu gewinnen. So haben wir ein Konzept geschaffen, das für Vetter auch mit Blick auf unser starkes Wachstum die nächsten fünf bis sieben Jahre tragfähig ist.
[07:39] Herausforderungen, Potenziale und Status quo – So sieht der Use Case in der Praxis aus
Was war für euch der initiale Druck? Kam der aus der Regulatorik oder habt ihr selbst gesagt, wir müssen jetzt etwas tun, wir wollen das angehen? Woher kam die Motivation und wie seid ihr vorgegangen? Habt ihr das sehr systematisch gemacht oder euch eher führen lassen?
Bastian
Man muss sich vorstellen, dass die heutige Dokumentation eines GMP-Prozesses größtenteils auf Papier stattfindet. Das bedeutet, dass wir aus jedem unserer kommerziellen Aufträge sehr viel Papier erzeugen, um den Prozess zu dokumentieren und am Ende die Nachvollziehbarkeit sicherzustellen. Ein einzelner Batch kann bis zu 500 Seiten Papier umfassen, mit mehreren tausend Unterschriften. Viele Prozess- und Maschinendaten werden heute noch händisch in diese Papierdokumentation übertragen. Für uns ist es daher eine enorme Effizienzsteigerung, wenn wir direkt auf Maschinendaten zugreifen und Prozessbewertungen automatisieren können. So kommen wir auch schrittweise weg vom Papier. Uns ging es dabei nicht darum, klassisch „Paper to Digital“ zu machen, also Papier einfach in einer Applikation abzubilden, sondern darum, Prozesse wirklich zu automatisieren. Dafür braucht man Daten und generische Schnittstellen. Ein Unternehmen unserer Größe hat nicht nur einen Maschinenlieferanten, sondern viele unterschiedliche, von großen Prozessanlagen bis hin zu kleinem Laborequipment. Deshalb muss Integration generisch funktionieren, idealerweise mit einem Template-Ansatz, sodass das, was ich heute entwickle, morgen auch für das nächste Equipment genutzt werden kann. So sind wir sehr früh in unserer Digitalisierungsreise zu der Erkenntnis gekommen, dass wir ohne eine Integrationsebene, ohne eine Middleware, nicht mit der nötigen Geschwindigkeit vorankommen würden. Wir sind bewusst so vorgegangen, dass wir die Datenintegration vor der finalen Applikation betrachtet haben. Natürlich wollen wir unseren Batch Record später in einem MES-System abbilden, aber wir haben uns zuerst mit der Datenintegration beschäftigt, bevor wir einen finalen MES-Anbieter ausgewählt haben. Für uns sind Datenverfügbarkeit, Datenqualität und Datenintegrität zentrale Themen. Deshalb haben wir diese Entscheidungen sehr früh getroffen. In den letzten Jahren haben wir uns stark aus der Prozessperspektive heraus entwickelt. Wir kommen nicht aus der Technologie, sondern haben uns ab 2023 intensiv mit unseren Unternehmensprozessen auseinandergesetzt und daraus die relevanten Use Cases identifiziert. Diese haben wir 2024 mit verschiedenen Proofs of Concept abgebildet und 2025 genutzt, um diese POCs in eine skalierbare Architektur zu überführen, die auf zukünftiges Wachstum vorbereitet ist. 2026 gehen wir dann in den Rollout.
Um das noch einmal einzuordnen: GMP ist ja relativ pharma-spezifisch, also Good Manufacturing Practice. Man muss nachweisen und dokumentieren, was man gemacht hat, wie man es gemacht hat und wie Änderungen erfolgt sind. Ich finde es sehr spannend, was du gesagt hast, dass ihr das Thema stark prozessgetrieben angegangen seid. In früheren Gesprächen, auch in einer Sonderfolge, haben wir festgestellt, dass bei vielen Digitalisierungsprojekten die Technologie im Vordergrund steht. Das führt oft zu Problemen, weil man zwar einen tollen POC hat, aber die Prozesse nicht wirklich verstanden wurden, weder in ihrem Ist-Zustand noch in ihrer Weiterentwicklung. Ein drittes Element, das oft fehlt, ist der Mensch. Meine persönliche Richtlinie ist inzwischen: Technologie, Prozesse und Mensch. Wie habt ihr das gemacht? Thema Change Management, Einbindung der Anwender, Akzeptanz der Technologie – hattet ihr dafür konkrete Ansätze?
Bastian
Bevor wir uns in diesem Umfang mit Digitalisierung beschäftigt haben, haben wir sehr früh eine Governance etabliert, um sicherzustellen, dass alle auf das gleiche Zielbild hinarbeiten. An diesem Zielbild orientieren wir uns unternehmensweit. Es ist bewusst auf einer gewissen Flughöhe definiert, also nicht auf Ebene der letzten Applikation oder des letzten Tools, sondern so, dass klar ist, wie unsere Roadmap aussieht und wie unsere Architektur gedacht ist. Daran können sich die Fachbereiche orientieren. Uns war es wichtig, im ersten Schritt die Kernprozesse in den Fokus zu nehmen. Für uns war das der aseptische Kern inklusive der Labore. Wir wollten unseren Kunden frühzeitig einen Mehrwert bieten, denn auch unsere Kunden möchten mit Daten arbeiten. Das Teilen von Daten in bestimmten Digitalisierungsstufen ist ein wichtiger Faktor. Deshalb haben wir mit einem klaren Zielbild gestartet, an dem man sich orientieren kann und an dem man sich auch orientieren muss. Change Management ist ein entscheidender Faktor, und wir sind da sicher noch nicht am Ziel. Das wird es auch nie geben, weil es ein lebender Prozess ist. Aber man merkt, dass wir uns in den letzten Jahren weiterentwickelt haben. Das Unternehmen hat das Ziel klar ausgerufen, die Kernprozesse zu digitalisieren. Das hilft enorm, weil sich Prozesse und Ressourcen an einem gemeinsamen Unternehmensziel ausrichten lassen. So hat sich ein guter Weg etabliert, wie wir Themen angehen. Nicht technologiegetrieben, sondern ganzheitlich. Wir beziehen die relevanten EAM-Ansätze mit ein, konzentrieren uns auf Prozesse, Systeme und Daten und wollen diese in ihrem Zusammenspiel wirklich verstehen.
[13:39] Lösungen, Angebote und Services – Ein Blick auf die eingesetzten Technologien
Fabian, jetzt mal in deine Richtung zu soffico. Kannst du erzählen, wie Orchestra dabei helfen kann? Gerade in einer so stark regulierten Umgebung war das für euch ja kein ganz alltägliches Feld. Wo kommt ihr ursprünglich her und wie war eure Reise in dieses Umfeld?
Fabian
Wir waren mit soffico lange Zeit sehr stark im Healthcare-Bereich aktiv, also bei Krankenhäusern und Krankenkassen. Das sind ebenfalls sehr stark regulierte Branchen. Mit dieser Art von Regulatorik sind wir vertraut, darin fühlen wir uns wohl. Als wir entschieden haben, unseren Fokus stärker auf die Industrie zu legen, war es für uns naheliegend, auch intensiv in den Pharmabereich einzusteigen. Das Ziel bei Vetter ist eine einheitliche, klare und skalierbare Architektur, die auf alle Standorte anwendbar ist und zentral überwacht und betrieben werden kann. Es geht also um ein sehr rundes Gesamtbild, das wir hier gemeinsam planen und umsetzen. Wir bewegen uns dabei im GMP-regulierten Pharmaumfeld. GMP bedeutet, dass europäische Richtlinien für die Produktion und Verpackung von Arzneimitteln eingehalten werden müssen. Dadurch ist dieses Umfeld sehr dokumentations- und prozessgetrieben. Gerade im OT-Bereich ist die Pharmaindustrie im Vergleich zu anderen Branchen oft relativ starr, träge und wenig flexibel. Unser Ziel ist es trotzdem, unter diesen Voraussetzungen eine skalierbare und flexible, weiterentwickelbare Architektur aufzubauen. Genau darin liegt die zentrale Herausforderung. Auf der einen Seite setzen wir Orchestra als Integrationsplattform ein, die vielseitig und herstellerunabhängig integrieren kann. Auf der anderen Seite arbeiten wir mit einem sehr hohen Automatisierungsgrad. Konkret heißt das, wir nutzen CI/CD-Pipelines in Kombination mit einem Kubernetes-Umfeld, das wir auch bei Vetter einsetzen. Mit diesem Automatisierungsgrad können wir Prozesse sauber definieren und compliant umsetzen, inklusive automatisierter Testcases und aller notwendigen Prüfungen. Ziel ist es, diese Prozesse möglichst standardisiert und risikoarm ablaufen zu lassen. Wenn ein Prozess einmal sauber definiert, getestet und freigegeben ist, können wir effizient skalieren. Man muss verstehen, dass GMP-Regulierung zwingend bestimmte Dinge verlangt. Es gilt das Prinzip der dokumentierten Evidenz: Was nicht dokumentiert ist, gilt als nicht passiert. Das bedeutet klare Prozesse, klare Freigabeflüsse, Änderungen im Vier-Augen-Prinzip und strikt getrennte Phasen von Entwicklung über Test bis Produktion, ohne Abkürzungen. In der Automotive-Industrie spielt Qualität ebenfalls eine große Rolle, aber dort ist das nicht in dieser Form regulatorisch von der EU vorgeschrieben.
Du hast eine ganze Reihe spannender Themen angesprochen, wie CI/CD-Pipelines und ähnliche Konzepte, die ursprünglich aus dem IT-Umfeld kommen und jetzt an der Schnittstelle zwischen OT und IT für Datenerhebung und Datentransparenz eingesetzt werden. Was ist aus eurer Sicht der konkrete Nutzen davon? Seht ihr das als allgemeinen Standard im Markt oder eher als etwas Spezielles, das ihr hier umsetzt?
Fabian
Grundsätzlich ist das Thema Kubernetes nichts völlig Neues. Das haben wir auch bei euch im Podcast schon öfter gehört. Kubernetes wurde ursprünglich von Google entwickelt und existiert seit einigen Jahren, findet aber erst seit relativ kurzer Zeit verstärkt Einzug in die Industrie. Wir bewegen uns damit noch immer in einem sehr innovativen Feld. Gerade so, wie wir Kubernetes bei Vetter einsetzen, nämlich für die Maschinenanbindung auf OT-Ebene, ist das etwas Neues. In diesem Kontext sind wir sehr innovativ unterwegs und nutzen Technologien aus der IT-Welt, die uns Möglichkeiten eröffnen, die wir mit klassischen Ansätzen in der gewünschten Dynamik und mit den erforderlichen Prozessen so nicht hätten.
Genau das finde ich spannend. Wenn man etablierte IT-Konzepte immer stärker in die OT-Welt bringt, und das auch noch in einem regulierten Umfeld mit zusätzlichen Anforderungen. Da gab es sicher viele Themen rund um Data Security, Governance, Compliance und Audits. Was war aus eurer Sicht am schwierigsten? Wer hat am längsten für Freigaben gebraucht? Qualität, Betriebsrat oder andere Stakeholder?
Bastian
Das war für uns tatsächlich ein sehr großes Arbeitspaket im Rahmen des Konzeptprojekts. Wir haben früh erkannt, dass wir uns intensiv mit Validierungsprozessen beschäftigen müssen. Nur so konnten wir sicherstellen, dass das, was wir uns technologisch und prozessual überlegen, am Ende auch transparent validierbar ist. Das ist entscheidend, um in Audits – sowohl bei Kunden als auch bei Behörden – die Prozesse vollständig darstellen zu können. Hätten wir das Thema Validierung nicht von Anfang an mitgedacht, wäre das später mit Sicherheit eine große Herausforderung geworden. Die Datenintegrität spielt dabei eine zentrale Rolle. Es muss sichergestellt sein, dass die Daten, die wir an der Maschine erfassen, auch korrekt in den übergeordneten Systemen ankommen. Das wird über klassische End-to-End-Tests abgesichert, die Teil der Validierung sind. Wir arbeiten mit einer typischen Drei-System-Landschaft: Entwicklung, Qualifizierung und Produktion, jeweils in getrennten Instanzen. Ein großer Erfolgsfaktor war aus meiner Sicht, dass wir unsere Integration von Anfang an in dieser Drei-Stufen-Landschaft gedacht haben, entlang etablierter IT-Prozesse und des Release-Managements. So konnten wir Synergien mit bestehenden Prozessen nutzen. Dadurch hatten wir auf dem Weg vergleichsweise wenig Widerstände. Stattdessen haben wir das Ganze als Enablement für Digitalisierung und vertikale Integration verstanden und gemeinsam an einem Strang gezogen.
Fabian
Genau, ich glaube, ein sehr entscheidender Punkt war, dass die QA von Anfang an eingebunden wurde. Sie wurde bereits in der Architekturphase mitgenommen, sodass die Gedanken und Konzepte früh im Unternehmen verankert und ganzheitlich betrachtet werden konnten. Das war extrem wichtig, um Akzeptanz im gesamten Unternehmen für ein neues Thema und einen Change-Prozess zu schaffen, der natürlich immer eine gewisse Hürde darstellt. QA steht dabei für die Qualitätsabteilung.
Wenn man sich anschaut, wie das Setup heute aussieht, dann läuft Orchestra als Datenintegrationsplattform auf Kubernetes. Orchestra fungiert dabei als Middleware, die Maschinen und IT-Systeme miteinander verbindet, also als eine Art Service Bus, in dem die Prozessflüsse laufen und eine einheitliche Datenarchitektur geschaffen wird. Unser Ziel ist es, keine Point-to-Point-Verbindungen, keine Insellösungen, keine Silos und kein sogenanntes Spaghetti-Interfacing zu haben, sondern eine zentrale Plattform. Diese läuft auf Kubernetes und übernimmt sowohl die Maschinenanbindung als auch die Anbindung in Richtung IT-Ebene. Wir haben dafür eine dreistufige Architektur aufgebaut: eine Schicht auf der OT-Ebene für die direkte Maschinenanbindung, eine Zwischenschicht zur Aggregation von Segmenten und eine Schicht in Richtung IT-Ebene. Diese Architektur wird den Anforderungen von Vetter sehr gut gerecht und ist entscheidend, um skalieren zu können und gleichzeitig eine hohe Ausfallsicherheit zu gewährleisten, was in der Pharmaindustrie extrem wichtig ist.
Wir haben jetzt viel über Transparenz gesprochen. Früher war das stark papiergetrieben, heute wird es digital. Wenn man den Unterschied zwischen dem ursprünglichen Ist-Prozess und dem angestrebten Soll-Prozess betrachtet: Gibt es konkrete Anwendungsfälle oder Aspekte, die besonders auffallen oder besonders interessant sind?
Bastian
Wir integrieren sehr stark verteilte Datenquellen. Unser Shopfloor ist wie eine Pyramide aufgebaut: unten sehr breit, mit vielen unterschiedlichen Anlagen und Prozessen, und in den höheren Ebenen der ISA-Pyramide wird es immer schmaler. Diese Vielfalt und die verteilten Datenquellen haben wir sehr früh als zentralen Punkt erkannt. Nur so können wir am Ende zustands- und ereignisgesteuerte Abläufe automatisieren. Unser Ziel ist es, möglichst viele Entscheidungen datengetrieben zu treffen, egal ob es um Prozessentscheidungen, Prozessanalysen oder Prozessoptimierungen geht. Heute ist es oft so, dass ein Wert von einer Maschine abgeschrieben, auf Papier mit einem Sollwert verglichen und anschließend im Vier-Augen-Prinzip unterschrieben wird. Wenn ich diese Datenquelle vertikal integriere, muss ich diesen Review im Idealfall nur noch dann durchführen, wenn ein System eine Abweichung erkennt. Solange beispielsweise MES-, LIMS- oder andere Systeme melden, dass der Ist-Prozess dem Soll-Prozess entspricht, muss ich mich nicht mehr im Detail mit jeder einzelnen Entscheidung beschäftigen. Stattdessen kann ich mich auf einen Review by Exception konzentrieren. Das bringt einen enormen Effizienzgewinn und gibt uns gleichzeitig Zeit, uns genau mit den Ausnahmen zu befassen, diese mit weiteren Prozessdaten zu analysieren und fundiert zu bewerten, ob sie Auswirkungen auf den Prozess haben oder nicht. Business Intelligence und Data Analytics sind große und weiter wachsende Themen. Je besser wir unsere Datenquellen orchestrieren und standardisieren, desto besser können wir diese Daten unternehmensweit für Analytics-Anwendungen nutzen. Heute steuern wir ein Unternehmen unserer Größe bereits stark datengetrieben, allerdings vor allem auf Basis von Unternehmensdaten. Durch die Vernetzung bis in den Shopfloor hinein können wir uns deutlich breiter aufstellen und viel tiefer in die Prozessoptimierung einsteigen, um am Ende zusätzlichen Mehrwert für Vetter zu schaffen.
Zusammengefasst finde ich euren Weg sehr überzeugend, gerade weil ihr von Anfang an ein klares Zielbild hattet. Viele Unternehmen stehen in der Anfangsphase vor der Herausforderung, Business Cases auf Basis einzelner Use Cases zu rechnen, also mit einem klaren ROI nach ein oder zwei Jahren. Das ist in so einem Kontext oft kaum möglich, weil man zunächst die Grundlagen schaffen muss, um später viele unterschiedliche Anwendungsfälle umsetzen zu können. Man beißt sich da schnell in den Schwanz: Man hat noch keine Transparenz über mögliche Benefits, Einsparungen oder Effekte, muss aber zunächst in eine vergleichsweise kostspielige Basisarbeit investieren, etwa in Datenstrukturen und Integration. Dafür braucht es eine gewisse initiale Überzeugung, überhaupt loszulegen. War das bei euch von Einzelpersonen getrieben oder eine bewusste Organisationsentscheidung? Das ist für viele Zuhörer relevant, weil diese Entscheidung irgendwann getroffen werden muss und alles andere als trivial ist.
Bastian
Das war eine klare Organisationsentscheidung. Wir sind ein familiengeführtes Unternehmen und verstehen uns trotz unserer Größe nach wie vor als Mittelstand. Wir hatten dafür das volle Backing des Managements und auch eine klare Vorgabe: Wir wollen uns digitalisieren. Dabei haben wir uns nicht nur mit der vertikalen Datenintegration beschäftigt, sondern sehr früh auch mit dem Thema Stammdaten. Denn automatisieren kann ich nur dann sinnvoll, wenn die relevanten Stammdaten digital verfügbar sind. Ein zentrales Schlagwort ist hier Product Lifecycle Management. Prozesse lassen sich nur effizient automatisieren, wenn die zugrunde liegenden Stammdaten sauber digital vorliegen. Das waren für uns die ersten beiden digitalen Initiativen: Zum einen das Stammdatenmanagement in ein PLM zu überführen und einen klassischen Product-Lifecycle-Management-Prozess aufzusetzen, und zum anderen die Integration der Daten voranzutreiben, sowohl horizontal auf IT-Ebene als auch vertikal bis in den Shopfloor. Erst auf Basis dieser beiden Bausteine konnten wir dann gemeinsam mit weiteren Applikationen wie MES- und LIMS-Systemen Prozesse aufbauen. Wir haben uns bewusst nicht zuerst mit einzelnen Tools beschäftigt, sondern mit Stammdaten und Integration als Fundament.
[26:51] Übertragbarkeit, Skalierung und nächste Schritte – So könnt ihr diesen Use Case nutzen
Würdest du sagen, ihr habt eine Zwischenstufe erreicht? Ist Orchestra jetzt für die Pharmaindustrie allgemein einsatzbereit, so nach dem Motto Plug and Play mit durchgehend grünen Lichtern? Oder wo liegt die Grenze zwischen dem, was man eins zu eins übernehmen kann, und dem, wo man noch individuell anpassen muss? Und wie entwickelt sich das aus eurer Sicht weiter?
Fabian
Das, was wir bei Vetter umsetzen, ist natürlich sehr pharma-typisch und pharma-spezifisch. Wenn wir auf die Maschinenanbindung schauen, sprechen wir häufig über Protokolle wie OPC UA, die in der Industrie mittlerweile sehr weit verbreitet sind. Wenn wir jedoch in die Labore hineinzoomen, sieht es anders aus. Dort sprechen wir über Waagen, UV-Meter, pH-Meter oder Osmometer, die teilweise sehr spezielle Protokolle nutzen, etwa RS232, serielle Schnittstellen oder proprietäre, dateibasierte Formate. Das findet man nicht in jedem Unternehmen, und dadurch entsteht ein sehr heterogenes Umfeld, das wir trotzdem integrieren und beherrschen müssen. Auch das, was Vetter gemeinsam mit uns beim Einsatz von Kubernetes umsetzt, ist in dieser Form noch sehr innovativ. Ich würde sagen, Vetter tritt hier gemeinsam mit uns als Innovator auf und erschließt einen Bereich, der so noch nicht weit verbreitet ist. Zusammengefasst: IT-/OT-Projekte ähneln sich oft in ihren Grundmustern, die Use Cases und Zielsetzungen sind vergleichbar. Am Ende ist aber jeder Kunde anders, mit eigenen Philosophien, Herausforderungen und Anforderungen. Deshalb kann man gut von einer 80-20-Regel sprechen.
In welchen Branchen seid ihr darüber hinaus mit Orchestra aktiv?
Fabian
Im Grunde überall dort, wo etwas hergestellt oder betrieben wird. Das reicht von Automotive über Pharma bis zur Elektronikindustrie. Darüber hinaus arbeiten wir mit Unternehmen aus dem öffentlichen Bereich, etwa in der Verwaltung, ebenso mit Banken, Versicherungen und auch im Defense-Bereich. Wir sind also sehr breit aufgestellt. In jedem Unternehmen geht es letztlich darum, Daten von A nach B zu bringen, über einen standardisierten, wartbaren und betreibbaren Weg. Genau dafür eignet sich Orchestra branchenübergreifend sehr gut.
Das klingt nach einer hohen Flexibilität. Zum Abschluss würde mich noch interessieren, wie es bei euch weitergeht. Bastian, in deine Richtung: Ihr habt jetzt die Dateninfrastruktur aufgebaut, mehrere Anwendungsfelder identifiziert und auch das Thema künstliche Intelligenz angesprochen, das natürlich Daten und Kontext braucht, um sinnvoll eingesetzt zu werden. Wie sieht euer abgestimmtes Zielbild aus und wie geht ihr die nächsten Schritte an?
Bastian
Wir steigen jetzt in den Rollout der Use Cases ein. Zunächst finalisieren wir die Infrastruktur und rollen dann die Use Cases mit dem passenden Betriebsmodell aus. Wie in jedem Unternehmen geht es dabei nicht nur um Datenintegration, sondern auch darum, die gesamte Systemlandschaft konsistent weiterzuentwickeln. Wir befinden uns aktuell mitten auf der Reise. Unser Ziel ist es, die weiteren Digitalisierungsinitiativen konsequent voranzutreiben und dabei Schritt für Schritt auf unser Zielbild hinzuarbeiten. Dieses Zielbild werden wir über Zwischenstufen in absehbarer Zeit erreichen, aber es wird nie für zehn Jahre statisch bleiben. Wir werden es immer wieder mit dem Markt und mit unseren Prozessen abgleichen. Digitalisierung ist für uns keine Eintagsfliege, sondern wird uns in den nächsten Jahren kontinuierlich begleiten und immer wieder Anpassungsfähigkeit erfordern. Ich glaube aber, wir haben die Grundlage geschaffen, um unsere Kernprozesse so weiterzuentwickeln, dass wir sowohl für uns als auch für unsere Kunden einen großen Mehrwert generieren können.
Was ich daran sehr positiv finde, ist, dass ihr das aus einer Position der Stärke heraus macht. Ihr seid stark am Wachsen, und oft führt das dazu, dass Wachstum gegenüber Innovation priorisiert wird. Umso mehr freut es mich, dass ihr beides miteinander verbindet: die Grundlagen schaffen und gleichzeitig innovativ bleiben. Aus dieser Position heraus schon zu digitalisieren, bevor echte Probleme entstehen, halte ich für einen sehr guten Ansatz. Fabian, aus eurer Sicht bei soffico: Wo siehst du aktuell die stärksten Entwicklungsfelder?
Fabian
Wenn wir unsere Phasen betrachten, haben wir die ersten Schritte abgeschlossen. Die Architektur steht, die ersten Anbindungen sind realisiert, und im nächsten Jahr starten wir in den echten Rollout. Dann wird es besonders spannend, weil sich zeigen wird, ob die Prozesse und die Architektur im Alltag genauso greifen, wie wir es uns vorstellen, vor allem wenn die Validierungsprozesse intensiv gelebt werden. Ich glaube, dass wir in ein oder zwei Jahren sehr gut darüber berichten können, was die Best Practices sind, welche Learnings wir mitgenommen haben und wo wir vielleicht auch Fehler gemacht haben. Auch das gehört dazu. Für 2026 und darüber hinaus wird das auf jeden Fall ein sehr spannendes Thema.
Herzlichen Dank von meiner Seite. Ich fand das Gespräch sehr interessant und freue mich auf Updates in den kommenden Monaten und Jahren. Habt ihr noch ein paar letzte Worte an die Hörerinnen und Hörer oder ist alles gesagt?
Bastian
Zum Abschluss möchte ich mich ausdrücklich bei Fabian und dem gesamten soffico-Team bedanken für das, was sie in den letzten Jahren mit uns geleistet haben. Das ist eine wichtige Grundlage für unser Wachstum. Der Support war hervorragend, die Flexibilität sehr hoch, und am Ende hat uns auch das Produkt überzeugt. Dafür ein großes Dankeschön an Fabian und das komplette soffico-Team.
Fabian
Vielen Dank, Bastian. Das möchte ich genauso zurückgeben. Ich finde es großartig, was wir gemeinsam bereits auf die Beine gestellt haben. Jetzt gilt es, die nächsten Schritte zu gehen. Für uns bei soffico ist ein partnerschaftliches Verhältnis zu unseren Kunden extrem wichtig, um gemeinsam erfolgreich zu sein und an einem Strang zu ziehen. Das funktioniert mit Vetter sehr gut, und ich freue mich sehr auf die weitere Zusammenarbeit. Für alle, die das Thema interessiert: Wir veranstalten bei soffico regelmäßig Events. Im November hatten wir unser Orchestra Symposium, bei dem Bastian einen sehr spannenden Vortrag gehalten hat. Für nächstes Jahr planen wir wieder Roundtables mit verschiedenen Kunden, der nächste mit Fokus Pharma ist für das erste Quartal geplant. Wer Interesse hat, kann sich gerne melden, vorbeischauen und mit uns über die Herausforderungen in der Pharmaindustrie diskutieren.
Super. Vielen Dank für die interessante Folge und bis bald.
Fabian
Dankeschön, ciao.
Bastian
Dankeschön.


