Do you want to see our content in English?

x
x

Investor Frank Thelen über Unified Namespace – Neuer Datenstandard für die Industrie mit UMH

““

Klicken Sie auf den unteren Button, um den Inhalt von Spotify Player zu laden.

Inhalt laden

IoT Use Case Podcast auf Spotify anhören
IoT Use Case Podcast auf Spotify anhören
IoT Use Case Podcast auf anderen Plattformen anhören

IoT Use Case Podcast - Frank Thelen, Freigeist Capital + Alexander Krüger, UMH Systems

Frank Thelen, der Unternehmer, Bestsellerautor, Investor, bekannt aus “Die Höhle der Löwen”, ist mit seinem neuesten IIoT-Investment United Manufacturing Hub (UMH) in der 122. Folge des IoT Use Case Podcast bei Madeleine Mickeleit zu Gast! Gemeinsam mit Alexander Krüger (CEO und Co-Founder bei UMH) diskutieren sie Themen wie den Einsatz von Open Source Software, die Wichtigkeit von Datenstandardisierung oder die Rolle von Community-driven Entwicklungen.

Zusammenfassung der Podcastfolge

Das Kölner Startup United Manufacturing Hub hat sich zum Ziel gesetzt, einen neuen Datenstandard in der Industrie zu etablieren. Unterstützt wird es dabei von Frank Thelens Venture-Capital-Fonds Freigeist und dem Bestandsinvestor DnA Ventures. Die von ihnen entwickelte Open-Source-Plattform ermöglicht es Ingenieuren, alle Datenquellen in der Fabrik nahtlos zu integrieren, um eine datengetriebene, effizientere und nachhaltigere Produktion zu fördern.

Der Unified Namespace spielt eine zentrale Rolle im Konzept von United Manufacturing Hub. Er wird beschrieben als eine Art zentraler Datenkrake oder Message Broker, durch den alle Arbeitsaufträge, Datenpunkte und Temperaturen innerhalb einer Fabrik geleitet werden. Diese Architektur ermöglicht den einheitlichen Zugriff auf Daten aus verschiedenen Quellen, was die Basis für die standardisierte Datenkommunikation bildet. Der Unified Namespace ermöglicht die Trennung und das gezielte Routing von Daten, was ihn zu einem wichtigen Werkzeug für die Integration und Analyse von Produktionsdaten macht. United Manufacturing Hub nutzt diesen Ansatz, um eine effiziente und übergreifende Datennutzung in Produktionsumgebungen zu ermöglichen, wodurch die Basis für datengetriebene Entscheidungen und Prozessoptimierungen geschaffen wird

United Manufacturing Hub wurde 2021 von Jeremy Theocharis, Alexander Krüger und Christian Proch gegründet. Das Team hat sich zum Ziel gesetzt, die besten IT- und OT-Tools für Ingenieure zugänglich zu machen und eine Grundlage für den Austausch von Wissen und Erfahrungen zu bieten. Bis heute hat das Unternehmen an über 50 Kundenstandorten gearbeitet und ist auf sechs Kontinenten aktiv.

Mit der Seed-Finanzierung durch Freigeist und der Unterstützung von DnA Ventures plant das Unternehmen, sein Produkt- und Engineering-Team weiter auszubauen, um den wachsenden Anforderungen großer Unternehmen gerecht zu werden. Darüber hinaus wird in die schnell wachsende Community rund um das United Manufacturing Hub investiert, die bereits mehr als 2.000 Entwickler und Ingenieure umfasst.

Podcast Interview

Hallo Frank und Hallo Alex, herzlich willkommen zum IoT Use Case Podcast. Ich freue mich mega, dass ihr dabei seid. Erstmal Frank, wie geht es dir? Wo erreiche ich dich gerade? Wo bist du unterwegs?

Frank

Du erreichst mich gerade im Bonner Büro, wo ich ja auch am liebsten bin. Ich bin ja nicht so der Remote-Typ. Ich komme gerade aus einer Besprechung mit dem Team und bin in Bonn.

Ich freue mich sehr, dass du heute dabei bist. Ich denke, wir werden heute ein wenig über dich und natürlich auch über euer Investment bei Freigeist sprechen. Zunächst einmal muss ich sagen, dass ich total begeistert war, als ich deine Nachricht bei LinkedIn gesehen habe, und seitdem freue ich mich auf das Gespräch. Besonders, weil ich United Manufacturing Hub bereits aus dem Netzwerk kannte. Es war irgendwie ein schöner Zufall, dass wir heute zusammenkommen. Deshalb vielen Dank, dass du heute dabei bist, Alexander. Wie geht es dir? Wo befindest du dich gerade?

Alexander

Mir geht es super, und das Wetter ist auch fantastisch. Ich befinde mich gerade in Köln, genauer gesagt in Ehrenfeld. Bin gerade etwas hektisch aus einem Meeting gekommen, aber ich bin wirklich sehr froh, jetzt hier bei euch zu sein. Vielen Dank für eure Zeit, ich freue mich.

Viele Grüße auch an euer Gründerteam. Der Erstkontakt war 2023 mit Christian, schöne Grüße ans Gründerteam. Für mich ist es total spannend, euch in der Konstellation heute dabei zu haben. Wie kommt ihr eigentlich zusammen? Wie kam es dazu? Wie habt ihr euch das erste Mal kennengelernt?

Alexander

Also, um vorab ein bisschen über uns zu erzählen: Bevor wir UMA gegründet haben, waren wir Teil eines technischen Systemintegrators, den wir zusammen mit einer großen Managementberatung aufgebaut haben. Wir waren diejenigen, die nach der strategischen Planung die Umsetzung durchgeführt haben. Damals hat uns Alexander, der jetzt bei Freigeist arbeitet, quasi schon zusammengebracht. Mit ihm haben wir vor etwa fünf bis sechs Jahren zusammengearbeitet. Letztes Jahr hatte ich Geburtstag, wie jedes Jahr, und Alex war sehr interessiert daran, ob ich mal auf einen Kaffee vorbeikommen möchte. So kam es dazu, dass wir uns trafen und uns über unsere aktuellen Projekte austauschten. Es war kein geplanter Prozess, sondern eher ein natürlicher Schritt aufgrund unseres gegenseitigen Interesses und des tieferen Kennenlernens. Wir kannten Alex bereits, und es war cool, diesen Moment mit ihm zu wiederholen.

Frank, wie war es von deiner Seite?

Frank

Für uns ist das übrigens untypisch. Man könnte ja manchen Menschen glauben, weil ich eine gewisse Reichweite und eine gewisse Bekanntheit habe, dass bei uns quasi der Dealflow, also das, was man als Venture Capitalist einfach reinbekommt, automatisch läuft und sich natürlich alle bei uns melden und weil wir so super toll und bekannt sind. Das Gegenteil ist der Fall, sondern was bei uns an Deals reinkommt, ist häufig wirklich Blödsinn, muss man leider einfach so sagen. Das heißt, wir sind sehr, sehr aktiv dabei, selber zu screenen über Software und andere Dinge. Was passiert gerade in den wichtigen Universitäten? Was passiert gerade in den wichtigen Inkubatoren? Und auch auf Social Media, wo treffen sich auf einmal ein WHUler mit jemand aus Aachen und so weiter. Und dass wir jetzt UMH auf die klassische Weise, wenn ich das so nennen darf, kennen oder wieder den Deal gefunden haben, das ist sehr, sehr unüblich, sondern normalerweise kommt das wirklich aus einer Software und einem sehr klaren Prozess, den wir hier bei Freigeist machen.

Ich würde gleich mal erklären, wer ihr von Freigeist seid. Frank, du bist bekannt als europäischer Seriengründer, Investor, Bestseller-Autor und aus dem Fernsehen, z. B. aus der Höhle der Löwen. Du bist heute stellvertretend für deinen Venture Capital Fonds bei Freigeist hier. Das ist eines der neuesten Investments, die ihr gemacht habt, besonders im Kontext IoT. Ihr seid bekannt als Venture Capital Unternehmen mit Fokus auf technologiegetriebene Start-ups, besonders in der Frühphase. Ist das richtig?

Frank

Absolut, das, was uns unterscheidet ist, dass wir wirklich auf verrückte Themen eingehen. Wir sind komplett First Principle Thinking getrieben. Wir investieren ausschließlich mit unserem eigenen Geld, hauptsächlich das der Gründer – Alex Koch, Marc Sieberger und mir. Zudem haben wir zwei weitere Partner, deren Geld wir ebenfalls investieren. Wir sind unabhängig von externen Investoren und streben danach, relevante Unternehmen in Europa aufzubauen. Das ist natürlich eine große Herausforderung, insbesondere bis zu einer Marktkapitalisierung von mehreren Milliarden Euro. Aber genau das treibt uns an. Nachdem wir einige Unternehmen erfolgreich verkauft haben, wollen wir weiterhin bedeutende Projekte in Europa vorantreiben. Da haben wir von Lilium Aviation mit fliegenden Autos über Energiespeicher, Kraftblöcke, Satelliten, Roboter mit RobCo und viele andere Themen, wo man wirklich sagt, wenn das wirklich funktioniert, , dann kann das Relevanz generieren.

Hast du so ein Beispiel vielleicht auch von den bekannten Startups mit Exit am Markt von euch?

Frank

Die Exits sind sozusagen alle in der Vergangenheit, weil es einen Moment braucht, bevor solche Deep Tech-Startups funktionieren. In der Vergangenheit haben wir zum Beispiel KaufDA, Wunderlist, MyTaxi und dann auch, das war so ein Seitenstrang, die Höhle der Löwen, das ist gerade schon erwähnt, dort haben wir einige Food Startups aufgebaut, Ankerkraut an Nestlé verkauft sind und andere Exits. Lilium ist heute an der Börse, damit könnten wir es auch schon verkaufen, aber wir halten unsere Anteile, weil wir einfach weiterhin an das Unternehmen glauben. Bei dieser crazy mission „Deep-Tech“ haben wir bisher noch keinen großen Exit. Wir haben schon tolle Runden gemacht, tolle Finanzierungssachen aufgebaut und die Unternehmen haben einen sehr, sehr großen Wert. Aber wir haben bisher noch nichts liquidiert und da haben wir auch ganz viel Zeit.

Okay, ich würde jetzt gerne ein wenig auf den United Manufacturing Hub eingehen und auch darauf, welche Vision ihr in dieses Investment steckt. Ich glaube, du hast im Handelsblatt gesagt, dass, wenn wir in Europa einen vollständigen Rückgang der Industrie verhindern wollen, eine intensivere Nutzung von Daten erforderlich ist. Kannst du das ein wenig näher erläutern, warum gerade UMH, warum dieses Investment, und was ist eure Vision dabei?

Frank

Von unserer Seite bei Freigeist ist es unser Ziel, Europa zu stärken und daran zu glauben. Wenn wir uns ansehen, wie die Produktion abläuft, insbesondere mit Unternehmen wie RobCo, die Roboter liefern, ist es erstaunlich, wie viel analoge Arbeit noch geleistet wird. Auf der einen Seite sehen wir, dass Menschen dort eingesetzt werden, wo Roboter die Arbeit erledigen könnten, und auf der anderen Seite gibt es immer noch Zettelwirtschaft. Das mag vielleicht unglaubwürdig klingen, aber Alex kann aus der Praxis dazu berichten. Wir haben tatsächlich eine Menge an Zettelwirtschaft, sei es in Excel-Tabellen oder anderen externen Systemen. Was man eigentlich erwarten würde, ist eine nahtlose Integration aller Systeme, in denen Maschinen, Produktionseinheiten und andere Sensoren automatisch Daten in einen gemeinsamen Datenstrom einspeisen und hochmoderne KI-Modelle die Produktion vollständig automatisiert steuern, idealerweise sogar vernetzt mit Partnern. Leider bleibt dies oft ein unerfüllter Traum, da die Produktion entweder auf Zettelwirtschaft und Excel oder teuren, veralteten Industrielösungen läuft. UMH hat jedoch innovative Open-Source-Software eingesetzt und ein Produkt entwickelt, das es ermöglicht, die Produktion auf eine gemeinsame Datenbasis zu bringen, um sie intelligenter zu steuern.

Ihr habt eine Open Source Software Plattform entwickelt mit der Unternehmen ihre Daten aus der Produktion sammeln können, aber auch in einen einheitlichen Standard überführen können, damit man dort die Daten wieder nutzen kann. Was macht ihr genau?

Alexander

Vielleicht auch da der Sprung zurück. Ich glaube, dieser Punkt, wie undigitalisiert ist man eigentlich, das war schon sehr erschreckend damals. Also 2018, 2019, wo wir dann gestartet haben, waren wir natürlich auch total motiviert. Jetzt geht es los, Industrie 4.0, alle Player waren quasi mit einem super Angebot dabei, ob es jetzt Siemens war, ob es SAP ist oder PTC. Da war quasi alles jetzt digital und dann gab es quasi die ersten Aufträge. Dann war da ein Stahlschneid-Betrieb, also ich habe große Platten, mache daraus kleine Platten. Die Arbeitsvorbereitung war, ich drucke Zettel aus, mache einen Stapel von 150 Seiten und das ist dann quasi meine Übergabe an die Produktion. Es kommt dann in einen komischen Behälter. Am Ende der Schicht, also nach 24 Stunden, wird dann gezählt, wie viele von diesen Zetteln noch da sind. Das ist dann quasi meine nicht erfüllte Leistung. Die fertigen Zettel kleben dann an den geschnittenen Teilen, die irgendwo auf der Fabrik rumstanden. Wir waren damals dann beauftragt und hatten keine Ahnung was abgeht. Ich sitze hier in meinem Büro, das ist 100 Meter weit weg. Das könnte auch, weiß ich nicht, irgendwo in Indien sein. Ich habe hier gerade keinen Schimmer, was die Produktion macht. Das war quasi unsere Reise. Wir waren im Prinzip diejenigen, die mal die Daten bringen, ganz agnostisch. Dann haben wir angefangen, mit einem Systemintegrator, Datenquellen zu erschließen. Das ist jetzt auch Stück für Stück den UMH erklärt. Es gab dann jede Menge alte Maschinen. Der Bestand in Deutschland ist nicht neu. Das heißt, man musste aus alten Maschinen Daten rausbekommen, die Connectivity herstellen. Die Daten waren aber super uneinheitlich und mussten mit Logik aufbereitet werden. Die Maschine von dem einen Hersteller, die hatte eine ganz andere Sprache als die vom anderen Hersteller. Da mussten wir sie quasi übersetzen zu einem einheitlichen Datenstandard. Die Daten mussten aber auch irgendwie in die Cloud kommen, weil da die ganzen Applikationen liefen. Dann haben wir mit verschiedenen Technologien wie MQTT und Kafka die Daten rübergeschippt und hatten am Ende eine Infrastruktur gebaut. Im Prinzip eigentlich aus unserem eigenen Bedürfnis, diesen Use Case zu realisieren. Es war halt echt frustrierend, weil du die Lösungen am Markt hast Ich möchte keinen spezifischen Anbieter nennen, weil das gängige Praxis ist. Hier ist der Vertrieb. Bitte lass uns nochmal darüber sprechen. Wir starten jetzt einen Piloten, aber bis du einen Piloten hast oder das Produkt siehst, sind sechs Monate vergangen. Wir waren in einem Beratungsprojekt und hatten nur drei Wochen Zeit. Wir mussten jetzt liefern und haben quasi Open Source zusammengestöpselt. Das war wirklich großartig. Dann haben wir festgestellt, dass wir nicht die einzigen sind, die dieses Problem haben. Also haben wir es der Community zur Verfügung gestellt, unsere Nutzer und unsere Open Source-Version. Dadurch hat sich ein Produkt entwickelt. Das ist ein Open-Source-Tool, das auch wirklich wichtig ist, weil wir daran glauben, dass wir Standards schaffen müssen. Das sollte kein exklusiver Standard sein, der von Gremien festgelegt wird, sondern ein demokratischer Prozess. Jeder hat eine Stimme und kann seine Meinung einbringen. Deshalb haben wir mehr Nutzer als Kunden, was großartig ist.

Bevor ich jetzt gleich so ein bisschen zur Community und dem Open-Source-Standard komme, du hast es jetzt schon angesprochen, es geht um Use Cases. Kannst du mal so ein bisschen erläutern, welche Use Cases ihr jetzt genau umsetzt? Es gibt ja einmal die geschäftlichen Use Cases, wo der geschäftliche Mehrwert für den Betrieb entsteht, und den technologischen Use Case. Ihr beschäftigt euch mit der Datenarchitektur, mit der Integration von Daten, man könnte sagen Data Hub, Datendrehscheiben. Was verstehst du unterm Use Case?

Alexander

Im Prinzip sind Use Cases die Sache, die wir nicht machen. Wir sind der Business Case dahinter. Wir haben keine Ahnung, was der Nutzer morgen erfinden könnte. Wir haben Kunden in der Pharmaindustrie, die müssen diese gesamte Produktion von den Medikamenten digital aufzeichnen, weil die das aktuell noch papierbasiert machen. Die FDA sagt: das geht nicht, bitte digital aufzeichnen, sonst ist es nicht fälschungssicher. Das enablen wir. Bei uns ist ein großer Hersteller, Sonnländer, die machen die Aldi-Frühstückssäfte, Orangensäfte, Apfelsäfte und mit uns schaffen sie kontinuierliche Verbesserungen in der Produktion, das heißt mit Lean, OEE, Bottleneck-Analyse und so weiter. Dann haben wir einen Energiekonzern, E.ON, als Kunden und die sorgen eigentlich nur mit uns…

Krassere Brands auch übrigens, krasse Referenzen, die ihr in so einer frühen Phase schon habt.

Alexander

Die kommen auch auf uns zurück. Aber da sind wir auch super ehrlich. Ich glaube, das haben wir irgendwie…

Frank

Ich glaube, der Vertrieb ist hier so wichtig. Ihr kommt eben nicht aus der Vorstandsetage, was auch durchaus sinnvoll wäre, und dann runter, sondern UMH kommt heutzutage von unten. Das heißt quasi aus der Entwickler-Community, aus der Administratoren-Community. Die Leute sehen, ich habe hier dieses Legacy-System, das wird immer teurer, immer schwieriger, und dann sagen sie, es muss doch irgendwas anderes geben. Dann kommen sie quasi über den Open-Source-Weg dahin. Heute werden wir natürlich auch bald die CIOs und so weiter ansprechen, aber da kommt das Unternehmen her und dann kommen auf einmal ein E.ON oder andere große Namen aus der Arbeitsebene, wenn ich das so nennen darf, genau auf diese Lösung zu.

Alexander

Das ist aber auch eigentlich exakt, wie man Software verkauft. Also da ist Manufacturing oder die Industrie eigentlich irgendwo anders abgebogen. Wenn ich jetzt quasi eine Datenbank kaufe, einen Data Streaming kaufe, irgendeine Observability Plattform kaufe, also IT, dann kaufe ich immer durch den Entwickler und das Marketing ist auf den Entwickler zugeschnitten. Geiler Content, guter Content, gute Doku. Bei Manufacturing geht das irgendwie meistens über schöne Slides, über einen Vertriebler. Wir versuchen an uns selber zu verkaufen, also an die technische Person, und da auch offen und ehrlich mit Dokumentation und Produkt umzugehen. So schaffen wir es auch, große Marken zu knacken, weil wir uns einfach diesen Vertrauensvorschuss durch die Offenheit irgendwie erkauft haben.

Voll. Ja, das ist echt eine Hochglanzfolien-Schlacht. Man sieht viel auf den Messen, aber was wirklich dahintersteckt, ist das Thema. Jetzt habt ihr schon gesagt, es wird auch teuer für die, sag ich mal, Engineering-Leute oder für die Operations, auch gerade was die Legacy-Systeme angeht. Ich würde gerne noch mal den Business-Case verstehen, was Kunden heute hier wirklich an Zeit und Geld verlieren und so ein bisschen den Schwenk in Richtung Community und auch Open Source zu kriegen. Was ist der Business Case für eure Kunden und auch ein Stück weit die Herausforderungen, die Kunden lösen müssten ohne euch?

Alexander

Ich glaube, da gibt es so zwei Sachen. Einerseits, wofür zahlen die gerade Software für die gegebenenfalls gar nicht mehr notwendig wäre zu zahlen? Was müssten sie tun, um das jetzt selber zu enablen, also quasi umzubauen? Ich glaube, dieses Ersetzen oder wo können sie Geld sparen, ist aktuell eine komplette Parallelgesellschaft die sich da entwickelt hat. Zeitserien-Datenkenbanken ist quasi komplette Commodity in der IT. Das ist komplett kostenlos, TimescaleDB, InfluxDB. Aber gleichzeitig werden dann noch Millionen an große Hersteller von Zeitserien-Datenbanken bezahlt und das ist einfach nicht mehr zeitgemäß. Da kann man einfach jetzt Geld sparen. Wir sind quasi die Produktantwort auf ein Architekturproblem. Normalerweise würdest du jetzt zu einem extrem großen Systemhaus, IT-Systemintegrator, gehen und sagen, bau mir mal sowas. Dann wird es dann irgendwelche Workshops geben und da wird etwas Perfektes für dich abgeleitet. Wir sind quasi der Ansatz, hey das ist Best Practice, das ist gerade gebenchmarkt durch verschiedenste Kunden, durch verschiedenste Regionen, durch verschiedenste Vertikale. Nimm das doch einfach, das ist ein Produkt und du kannst so dann quasi den kompletten Lifecycle und Total Cost of Ownership runterbringen, indem du jetzt nicht one-off machst, sondern quasi die Kosten teilst mit anderen. Das ist dann quasi der Business Case oder die Idee auch hinter unserer Infrastruktur.

Was ist die Community-Relevanz des ganzen? Ich habe mich mal spaßeshalber in eurer Discord-Community angemeldet und da sind schon auch sehr spezielle Fragen, die gestellt werden. Was ist die Relevanz der Community für euch da?

Alexander

Die richtige Antwort ist wahrscheinlich, wen fragst du sonst? Und das ist halt dieses riesige Problem im Manufacturing. In der IT hast du Foren, da hast du Expertengruppen, da hast du Cloud Native Compute Foundation-Konferenzen. Aber du hast eigentlich bei diesen Industriebetrieben meistens nur eine Handvoll wirklicher Softwareleute und denen fehlt komplett der Austausch und die Perspektive, was andere machen. Wir schaffen diesen Raum für diese Personen, um sich auszutauschen, um Best Practices zu teilen, um Fragen zu stellen. Perspektivisch wollen wir so halt diesen „long tail“ von Problemen abwenden. Wenn man jetzt zum Beispiel an IoT im zuhause denkt, dann gibt es zum Beispiel den Kühlschrank. Den Kühlschrank hat aber schon irgendwann mal jemand angebunden und dann in Homebridge reingepackt, also in so ein Open Source Produkt. Das gleiche ist auch bei unserer Community. Das heißt, diese eine Maschine, dieser eine Maschinentyp, dieses eine MES-System hat schon mal der Typ in Südamerika gemacht und hat das geteilt mit der Community. So schaffst du halt einfach bessere Produkte zu bauen, ein Sammelbecken für hochqualitative Leute, die irgendwann auch Kunden werden können, das Produkt besser bauen und da auch tatsächlich dann eine signifikant bessere Traction auf dem Produkt zu haben und auch mehr installierte Basis zu haben. Das ist auch ein großes Problem bei Manufacturing-Software.

Kannst du nochmal so ein bisschen sagen, was jetzt genau euer Offering und die Lösung dahinter ist? Du hast gesagt, es geht ja vor allem um die Architekturen, die man dahinter angeht. Ihr bietet sozusagen die Plattform dafür. Wie funktioniert das genau?

Alexander

Genau, wir sind die Dateninfrastruktur. Natürlich ein sperrriger Begriff, aber was heißt das ganz konkret? Das ist auch Open Source und wird auch immer Open Source bleiben. Alles, was du brauchst, um Daten aus Maschinen rauszubekommen, diese Daten aufzureinigen, die Daten in verschiedene Systeme zu verteilen, zu speichern und zu visualisieren. Einmal diese komplette Journey durch und das dann als Produkt optimiert. Was verkaufen wir jetzt eigentlich? Was ist jetzt quasi das Produkt on top? Als Open Source-Projekt kannst du entweder Storage, also Speicherplatz, Rechenleistung oder „einfacher“ verkaufen. Wir haben uns für „einfacher“ entschieden. Das heißt, wir haben jede Menge zusätzliche Tools geschrieben, die unser Produkt noch einfacher anwendbar machen. Standardisiert, automatische Deployments, Monitoring, Konfiguration und so weiter. Alles automatisiert, standardisiert und zum Beispiel auch durch unser SaaS-Offering dann halt nutzbar. Im kleinen Maßstab auch kostenlos nutzbar, aber dann insbesondere in der Skalierung dann halt ein Enterprise-Licensing-Modell.

Kannst du an der Stelle nochmal so ein bisschen die Parallele ziehen zu Unified Namespace, das ist etwas, was eine Art Standard bilden soll. Was bedeutet das in dem Kontext genau?

Alexander

Das ist noch kein vollständig etablierter Begriff. Jeremy hat auch gerade einen super Blogbeitrag geschrieben, schauts euch gerne an. Es ist eine event-driven architecture in der Fabrik. Alle Arbeitsaufträge, alle Datenpunkte, alle Temperaturen werden durch eine zentrale Datenkrake, durch einen zentralen Message Broker, durchgeschickt und sind darauf zugänglich. Das ist im Prinzip Unified Namespace, aus einem strikten Format erfolgt, aus einer gewissen Nomenklatur. Im Prinzip ist unsere Antwort auf den Unified Namespace der United Manufacturing Hub. Das ist unsere Standard-Implementierung dieses Prinzips.

Es ist quasi kein offizieller Standard, sondern mehr ein Konzept oder eine Architektur-Praxis, könnte man sagen, die sozusagen in der Entwicklung von Software und auch gerade in der Architektur und Infrastruktur Anwendung findet in eurer Community. Kann man das so sagen?

Alexander

Ja genau, es hat sich auch irgendein Typ aus dem Internet ausgedacht. Normalerweise wäre es jetzt irgendein Gremium, was sich in Deutschland drei Jahre damit beschäftigt und am Ende dann ein White Paper rauskommt, was man nur hinter einer Sales Wall bekommt oder für 10.000 Euro kaufen kann. Da gab es einen Typ auf YouTube, der hatte absurd viele YouTube Videos zu produziert, aber auch gut aufbereitet. Der hat diesen Begriff geprägt. Walker Reynolds heißt der und hat da eine relativ große Angängerschaft um sich geschart.

Ich versuch so ein bisschen das Thema einzuordnen. Ich stelle mir vor, ich hab ein Smart-Home-System, was verschiedene Geräte steuert. Du hast vorhin Kühlschrank angesprochen, Thermostate, Lichter und so weiter, jedes der Geräte verwendet unterschiedliche Daten. Die aktuelle Struktur ermöglicht es im Grunde, dass jedes Gerät seine Informationen isoliert verarbeitet, wie oft in der Technologie erwähnt wird, auch mit Docker-Containern. Jede Anwendung läuft in ihrem eigenen Container, sodass das Thermostat beispielsweise nicht direkt auf den Kühlschrank oder die Lichter zugreifen kann. Ist das die Architektur, auf die du dich beziehst?

Alexander

Genau. Ich finde, so ein zugängliches Beispiel ist eine Nachrichtenagentur. Den Unified Namespace kann man sich so vorstellen wie Reuters. Die haben überall quasi Reporter auf der ganzen Welt, die Informationen bereitstellen oder auch gerne Informationen hätten. Die haben in Südamerika einen Reporter, in Nordamerika, in Europa, in Asien. Der Unified Namespace ist quasi der in der Mitte, der dann Informationen von Asien nach Europa weitergibt. Das heißt, ich bin jetzt ein Reporter in Brasilien und berichte gerade über eine Präsidentschaftswahl und die ganze Welt interessiert sich dafür. Das heißt, die Europareporter haben alle gesagt, bitte gib mir bitte alle Informationen zur Präsidentschaftswahl aus Südamerika und der Unified Namespace oder die event-driven architecture ermöglicht dann quasi dieses Aufteilen und Separieren von Daten. Das kann man sich genau in der Fabrik so vorstellen. Du hast Maschinensteuerungen, die können Fehler werfen und alle relevanten Programme, Docker-Container in der Fabrik, die sich für Fehler interessieren, also ein MES-System oder irgendeine Analyse, können subscriben oder alternativ zum Beispiel auch Rüstvorgänge rückschreiben. Das heißt, die Maschine interessiert sich für alle neuen Rüstaufträge und dann kann das MES sagen, hier rüsten wir bitte von blau auf grün und dann würde dieses dann auch wieder bidirektional durch den Unified Namespace vermittelt. Das ist so hoffentlich halbwegs zugänglich erklärt.

Frank

Aber das, das entscheidende hier ist, dass man einfach komplett verschiedene Produktionsmaschinen hat, was einfach so gewachsen ist. Es gibt auch gar nicht einen Hersteller, der alle Maschinen hat. Jetzt brauche ich einen gemeinsamen Datenstandard, so wie wir uns irgendwann auf Wi-Fi geeinigt haben, egal ob das ein MacBook, ein Windows-Notebook oder ein mobiles Gerät ist. Jetzt muss man auf der einen Seite diese kleineren Datenbrücken bauen, die wir dann als Open Source oder aus der Community heraus liefern. Teilweise sind das ja noch serielle Schnittstellen, also ganz alte Kabel, also musst du erstmal jedes einzelne System auf den Datenbus kriegen. Dann musst du eine Gemeinsamkeit von diesen Events, von den Datenpaketen haben, wo alles, was passiert, auf einen gemeinsamen Datenbus kommt, der dann auch wieder sicher gespeichert wird, verfügbar gemacht wird und dann auch schreibend lesen, damit ich dann zum Beispiel meine Dashboards, meine KI-Modelle oder was immer ich auf den Daten haben will, laufen lassen kann. Das ist auch nachher das super interessante, wenn man einmal diesen gemeinsamen Datenbus und dann anschließenden Speicher hat, der über eine API auch zugreifbar ist, dann kann ich ganz, ganz viele sehr, sehr wichtige Business-Entscheidungen treffen. UMH liefert die Basis dafür und darauf kann das jeweilige Unternehmen dann seine Businesslogiken und Applikationen abbilden, die es heute nicht kann, weil die ganze Produktion sich einfach nicht kennt. Das sind irgendwie alles komplett fremde Maschinen, die da rumstehen und keiner weiß was die Maschine tut, außer ein Mensch geht hin und schreibt irgendwas von einem Zettel ab. Das ist wirklich verrückt. Das ist crazy. Ich meine, Alex und sein Team, da kommen sie aus der Praxis her. Wir kennen das von RobCo, wo wir unsere Roboter installieren. Es ist erstaunlich, wie viel dort manuell und nicht digital abläuft. Man würde denken, dass das in der Industrie nicht sein kann. Wir leben zwar alle in unserer eigenen Blase – wir haben Podcasts und ähnliches – aber nicht jeder hat Zugang zu solchen Technologien. Wir alle nutzen zwar Smartphones, Cloud-Synchronisierung und Notion, aber für die meisten Menschen ist das nicht der Standard. Leider arbeitet die Produktion in Deutschland im Gegensatz zu anderen Teilen der Welt noch immer gerne mit veralteten Methoden wie Faxgeräten und Laufzetteln.

Diese Daten standardisiert aufzunehmen und vor allem auch aus alten Maschinen ist eine große Herausforderung. Es ist nicht alles Greenfield, du hast nicht die neuesten Steuerungen, sondern das sind alte Steuerungen. Vielleicht hast du da noch eine S5 oder irgendwelche Geräte, die gar keine Daten liefern, die ich nachrüsten muss. Das ist auch so ein Thema, diese Daten dann aufzunehmen und auch standardisiert bereitzustellen. Alexander, wie macht ihr die Datenaufnahme genau? Ihr habt ja verschiedene Connectoren, die kann ich jetzt sozusagen beispielsweise im Brownfield anwenden. Wie macht ihr das? Wie geht das, diese Daten überhaupt erstmal aufzunehmen?

Alexander

Wir haben da zwei Standardwege. Der eine Weg ist durch hochstandardisierte und extrem hochverfügbare Standardkonnektoren. Das sind in unserem Fall 80-90 Prozent aller Maschinen, mit denen wir arbeiten, die das unterstützen. Das ist entweder OPC UA oder Siemens S7. Das sind quasi die 90 Prozent. Das Problem: es reicht nicht. Du brauchst immer noch diese eine spezielle Waage, diese eine spezielle CNC-Maschine, die genau das nicht kann. Jetzt brauchst du das Schweizer Taschenmesser. Du hast quasi deine chirurgischen Werkzeuge, unsere Container für OPC UA oder S7, die das dann von der Steuerung in unser event-driven architecture Unified Namespace überführen. Das wird immer mehr und das wird auch nie aufhören. Da haben wir uns entschieden, strategisch mit Node-RED zu arbeiten. Das ist auch ein Community-Projekt und kommt ursprünglich aus dem Home-Automatisierungs-Bereich. Irgendwer hat sich immer am Wochenende mal rangesetzt und diesen Connector geschrieben, den Euromap-Connector, den Connector von Mitsubishi oder Hitachi, wie auch immer. Dieses Tool umfasst eine absurd hohe Menge an Treibern und es ist trotzdem in Docker-Containern abbildbar, konfigurierbar und auch nicht so ein Windows Legacy-Programm. Damit kannst du quasi diesen „long tail“, diese super vielen, immer anderen Protokolle auch anschließen.

Das sind, um in Dimensionen zu denken, Dutzende oder so Hunderte Millionen Datenpunkte, wahrscheinlich sogar pro Sekunde, die ihr da aufnehmt. Das muss irgendwo skalierbar sein, auf so einen Standard zu setzen. Interessant, dass ihr euch für Node-RED entschieden habt. Ich glaube, das nutzen viele schon in der Industrie und ist aus der Richtung vielleicht schon bekannt.

Alexander

Das ist so zugänglich. Das darf man nicht unterschätzen. Wenn man jetzt ein hochspezialisiertes Tool nimmt, was dann nur Kubernetes spricht, das kriegt der Automatisierungstechniker in Brasilien nicht ohne Training hin. Aber auf Node-RED, da gibt es Videos auf Portugiesisch und jede Menge Anleitungen für und das ist echt, echt zugänglich. Auch so Datenpunkte pro Sekunde, da denkt man, das ist immer so mega viel. Das kommt auch daher, dass die aktuellen Tools damit überfordert sind. Diese Standard-Historians, Pi-Systeme, die schaffen nicht mehr als X-Tausend pro Sekunde, aber in IT denkt man gerade in Megabytes, Gigabytes pro Sekunde, was dann ein Millionen Datenpunkte pro Sekunde wären. Das ist eigentlich kein Bottleneck, das ist komplett durch die verschiedenen Entwicklungen in IT jetzt komplett zu keinem Problem mehr geworden. Auch ein Tool wie Node-RED ist da relativ skalierbar.

Frank

Die Industrien hängen halt immer zurück. Man sieht es auch in der Autoindustrie, dieser CAN-Bus zum Beispiel als Standard, der uralt und super langsam ist. Man könnte ja Ethernet nehmen. Das hat jetzt Tesla als erster Mal gemacht, aber du bist halt auf diesen alten Standards und es ist ganz schwer so eine Industrie umzuändern.

Ja, vollkommen. Es ist echt schön zu sehen, dass ihr auf den Standard aufsetzt. Was macht eure Lösung jetzt genau besonders, auch im Vergleich zu dem, was schon am Markt ist oder was sich gerade entwickelt?

Alexander

Wenn Unternehmen bereits auf NATS setzen, erstmal Glückwunsch! Das ist eine gute Wahl. Auch intern haben wir darüber nachgedacht, ob wir NATS verwenden oder eine Kombination aus MQTT und Kafka. Diese zentrale Komponente, dieser Message Broker, der die Daten verteilt, ist entscheidend. Was wir spezifisch anders machen, ist die Auswahl eines zugänglicheren Protokolls. MQTT ist weit verbreitet und wird sogar von vielen Steuerungen nativ unterstützt. Deshalb haben wir uns dafür entschieden. Obwohl NATS auch MQTT unterstützt, ist es kein spezialisierter MQTT-Broker. In der IT-Branche ist Kafka der Standard, daher kombinieren wir diese Technologien quasi als ein nach außen gerichtetes Produkt. Wir haben auch noch deutlich mehr vor und hinter dem NATS, zum Beispiel die Datenaufbereitung mit Stream Processing und die Visualisierung oder Speicherung von Daten in einem Standardprotokoll. Aber wenn man bereits NATS verwendet, ist man schon recht weit fortgeschritten. Das ist zumindest mein Eindruck.

Frank

Was UMH liefert, ist das Gesamtpaket, das auch ständig aktualisiert wird. Dann gibt es immer mehr Module dazu, die dann auch nachher kostenpflichtig werden. Man kann das alles selbst zusammenbauen, aber hier ist es halt immer wirklich auf der aktuellen Vision, dass es einfach seamless zusammengreift und das ist das, was UMH liefert.

Alexander

Warum sollte man selbst zusammenbauen wollen? Das ist auch der genaue Punkt, weil viele unserer Kunden, die machen das, weil sie es müssen und nicht weil sie es wollen. Die wollen eigentlich unbedingt Use Cases bauen, die wollen Business Cases realisieren, wo die jetzt auch ihrem Unternehmen wirklich einen Mehrwert stiften und müssen etwas nehmen, was Open Source ist, um da irgendwie hinzukommen. Aber unser Ansatz ist, hey, das ist mehr als nur NATS. Hier ist der gesamte Baukasten, hier nimmt er das komplette Produkt und fängt darauf an. Dann können wir, wenn du etwas Kommerzielles brauchst, später nochmal sprechen.

Genau, das ist ja der Business Case am Ende. Also es bindet ja auch Personal, IT-Ressourcen, man will das Ganze skalieren. Da sind wir wieder beim Stichwort „Community“, was einfach ein riesiger Hebel ist. Ihr entwickelt auch eine Art Standard für die Industrie hier, was ja ganz spannend ist. Ihr macht das ja vor allem auch nicht so klassisch, also auch für die IT, aber ihr wollt das ja auch in die Hände von Ingenieuren geben, um so eine Art Benutzer-Erfahrung auch für die Operations einfacher zu machen, oder?

Alexander

Ja, genau, das ist im Grunde genommen das Problem. Die Situation ist quasi die, dass Ingenieure wie ich, ich bin auch auf dem Papier komplett unqualifiziert in Bezug auf IT, damit beauftragt sind, solche digitalen Fabriken aufzubauen. Das bedeutet, diejenigen, die sich mit Maschinenarbeit auskennen, verstehen auch oft nicht die IT. Unser Ansatz ist es, Technologien wie Kubernetes und Kafka so weit zu abstrahieren, dass ein Ingenieur sie nutzen kann, denn er benötigt Skalierbarkeit, Sicherheit und Zuverlässigkeit in einem einfach zu bedienenden Produkt, um es umzusetzen. Denn meistens ist er die Person, die es letztendlich umsetzen muss. Denn ein Industriebetrieb hat normalerweise nicht viele Architekten, die das dann auch umsetzen könnten.

Das ist auch so ein Thema, immer setze ich auf Hyperscaler auf. Gibt es eigentlich schon Angebote von den großen, wie Azure, AWS, Google Cloud und so weiter, gehen die auch in die Richtung? Gerade jetzt was die Architekturen angeht oder wie siehst du dieses Thema?

Alexander

Relativ ähnlich, wobei da glaube ich der Bias von denen ist „sei mal so schnell wie es geht in der Cloud“. Die bieten dann auch jede Menge Connectivity an, die dann halt die Daten schnell in die Cloud bekommt, weil da machen die auch ihr Business, da haben die ihre Produkte, das macht ja auch alles Sinn. Unser Ansatz ist da ein bisschen agnostischer, wir arbeiten auch mit allen Hyperscalern zusammen und sagen, du kannst bei AWS, bei Azure, bei Google, das alles hosten. Aber wir sagen, hey, macht das nicht vielleicht auch sogar Sinn, dass du einen Großteil der Daten on-premise behältst, weil es wahrscheinlich billiger und auch höher verfügbar für dich ist, weil die Inhaltverbindung in deinem Industriebetrieb nicht die allerbeste ist. So schaffen wir quasi dem Produktionsbetrieb ein bisschen mehr Flexibilität.

Okay, verstehe. Also, ihr führt im Grunde die Datenaufnahme über die Konnektoren mit Node-RED durch, habt dann das gesamte Thema der Datenverarbeitung und -Architektur wirklich skalierbar zur Verfügung, indem ihr auch hier auf Open Source setzt. Genau wie du es gerade beschrieben hast, ermöglicht ihr den Austausch und die Speicherung der Daten mit MQTT, Kafka und so weiter. Der letzte Schritt wäre dann sozusagen die Analyse und Auswertung der Daten. Wie werden diese Daten visualisiert und macht ihr das überhaupt?

Alexander

Die meisten unserer Kunden nutzen auch Tools wie Grafana. Ich würde sagen, es ist sehr niederschwellig, um sich ein paar Prozessdaten anzeigen zu lassen. Aber die eigentliche Analyse liegt nicht mehr in unserem Bereich. Wir stellen sicher, dass alle Daten hochsortiert und vorgefiltert in einer Datenbank abgelegt sind. Kunden können dann über REST oder SQL darauf zugreifen oder sich sogar direkt von Kafka alle Daten nehmen. Diese können zum Beispiel auch in einem Blob Storage in der Cloud, wie S3 oder einem anderen bevorzugten Dienst, abgelegt sein. Dann gibt es Spezialisten beim Kunden, die Analysen durchführen. Zum Beispiel übernimmt bei E.ON so eine externe Software diese Aufgabe. Wir sind quasi nur die Intermediäre, die die Daten bereitstellen und garantieren, dass sie hochverfügbar sind. Kunden können dann darauf aufbauen, was für sie am nützlichsten ist.

Okay, ich muss mich jetzt ein bisschen zurückhalten, weil ich habe noch so viele weitere Fragen, aber ich glaube, da kann man vielleicht auch direkt mit euch in Kontakt treten. Ich würde die Infos in den Shownotes einfach mal verlinken. Ich hätte jetzt zum Ende noch mal so zwei kleine Fragen, Frank vielleicht auch in deine Richtung. Du hast am Anfang die Vision, das Wachstum und die Skalierung ein Stück weit erklärt. Welche Meilensteine wollt ihr in den nächsten Jahren in Bezug auf die Skalierung gemeinsam mit Freigeist und UMH erreichen? Wie geht es weiter?

Frank

Der Grundstein ist gelegt. Wir haben ein hervorragendes Produkt. Jetzt arbeiten wir daran, die Installation und Wartung noch einfacher zu gestalten. Da es natürlich eine komplexe Installation ist, gibt es immer gewisse Herausforderungen. Diese möchten wir minimieren, damit mehr Leute schneller und einfacher skalieren können. Außerdem werden wir prüfen, wo wir weitere Module anbieten können. Zum Beispiel könnten wir die Visualisierung der Daten verbessern oder die Daten actionable machen, möglicherweise durch Partnerschaften oder eigene Entwicklungen. Wir stehen erst am Anfang, diesen Datenbusstandard in der Industrie zu etablieren, und von hier aus können wir sicherlich viel Wert in den Produktionen heben.

Ihr arbeitet gewissermaßen zusammen. Wie sieht das konkret aus? Wahrscheinlich stellt ihr Ressourcen und auch euer Wissen zur Verfügung. Wie wirkt sich das auf eure Unternehmenskultur aus? Alexander, was verändert sich aktuell durch diese Investition bei euch?

Alexander

Das ist erstmal super. Im Prinzip sind wir first time founder, also das allererste Mal als Unternehmen bzw. das erste Mal ein Softwareunternehmen aufgebaut. Da gibt es auch Fallstricke, da gibt es Fehler, die man vermeiden kann, teure Fehler, die man machen könnte, aber nicht unbedingt muss. Freigeist ist ein super Partner auf der Produkt-Ebene, dass wir da halt die richtigen Leute hiren, die richtigen architektonischen Entscheidungen treffen, auf der Sales-Seite die richtigen Personen vielleicht auch noch nicht einstellen, sondern erst später. Wir sprechen auch fast jeden Tag mit dem Freigeist-Team. Ich würde sagen, die Kultur ist weiterhin super und auch im Team sind sie jetzt nicht so als die über uns schwebenden Investoren quasi wahrgenommen, sondern eigentlich als neue Teammitglieder, die Lust haben, mit uns das nach vorne zu bringen. Also vollumfänglich eigentlich zufrieden damit.

Frank

Es freut mich, wir machen nur zwei Investitionen im Jahr und dann gehen wir wirklich Hands-on rein. Ich glaube auch bei euch Alex von Design über Branding, über Kommunikation, sogar über Softwareentwicklung, wir sind wirklich überall dabei und fühlen uns eher als Co-Founder als als Investor. Das ist das, was wir tun und das, was uns Freude macht. Wir haben das große Glück, das hier aus reiner Passion zu machen, nicht um Geld zu verdienen. Das macht uns einfach Freude zu sehen, so frühphasig diesen X-Faktor mit reinzubringen, um dann die Erfolgschancen einfach zu erhöhen.

Das war doch ein schönes Schlusswort auch für heute. Erstmal vielen Dank auch von meiner Seite aus, dass ihr heute das gemeinsame Produkt hier vorgestellt habt, auch im Rahmen des Investments. Ich glaube, man hat sehr schön verstanden, wie die Technologie funktioniert, warum Open Source, Community, der Gedanke so wichtig ist und wie die Skalierung für euer Produkt in Zukunft und auch heute schon funktioniert. Von meiner Seite aus, herzlichen Dank, dass ihr heute dabei wart. Ich würde das letzte Wort noch mal an euch übergeben. Schön, dass ihr heute da wart.

Alexander

Danke dir, war wirklich super hier zu sein. Kommt in die Community, also nochmal Call to Action. Es können nicht genug schlaue Leute mit einer Perspektive drin sein. Andererseits hiren wir auch auf verschiedenen Rollen. Wenn ihr Lust habt, das Produkt nicht nur auf der Community, sondern auch inhaltlich zu beeinflussen, dann guckt auf unsere Website, da sind super Rollen drauf. Nochmal vielen, vielen Dank fürs Hosten hier.

Frank

Genau, danke an dich, dass du diesen Podcast machst, das Thema IoT voranbringst und wir freuen uns, dass wir dabei sein durften. Vielleicht können wir ja nochmal zurückkommen, wenn wir größere Updates haben. Wir verfolgen natürlich deinen Podcast und das Thema weiter. Vielen Dank an dich.

Ich würde mich freuen, wenn wir noch mal eine Session machen. Vielen Dank an euch und noch eine schöne Woche. Macht’s gut.

Für Rückfragen stehe ich Ihnen gern zur Verfügung.

Questions? Contact Madeleine Mickeleit

Ing. Madeleine Mickeleit

Host & Geschäftsführerin
IoT Use Case Podcast