Do you want to see our content in English?

x
x

Herstellerunabhängig Sensoren vernetzen mit der CloudRail.Box und Azure IoT Hub | Schmitz Cargobull

““

Klicken Sie auf den unteren Button, um den Inhalt von Spotify Player zu laden.

Inhalt laden

IoT Use Case Podcast auf Spotify anhören
IoT Use Case Podcast auf Spotify anhören
IoT Use Case Podcast auf anderen Plattformen anhören

IoT Use Case Podcast #50 - Microsoft, Schmitz Cargobull, CloudRail

Im 50. Podcast prophezeit Thomas Frahler (Business Lead bei Microsoft Deutschland), dass IoT in wenigen Jahren zum Mainstream zählt, was die Bedeutung der Microsoft-Azure-Welt weiter deutlich steigern dürfte. Wie sich IoT-Einführung und anschließende Skalierung in der breiten Unternehmenslandschaft so schnell realisieren lassen, das zeigen Michael Schöller (Schmitz Cargobull AG) am Use Case der IoT im Transportwesen und, im zweiten Use Case, Philip Weber (CloudRail) als Experte für die skalierbare IoT-Anbindung jeglicher Maschinen.

Zusammenfassung der Podcastfolge

In dieser Podcastfolge werden zwei Use Cases vorgestellt, die auf Azure aufbauen, Microsofts Cloud-Service, mit dem sich Informationen in großem Maßstab einsammeln, auswerten, aber auch direkt  zur weiteren Nutzung verarbeiten und entsprechende Aktionen auslösen lassen.

Michael Schöller bringt von Schmitz Cargobull einen praktischen Anwendungsfall mit: Via IoT im Straßentransport lassen sich mittels Sensoren und Cloudanbindung unter anderem Temperatur und globale Position der wertvollen Fracht, aber auch der Wartungszustand der Fahrzeuge permanent erfassen und übermitteln. Damit kann die Einhaltung von Kühlketten überwacht werden, ohne auf zeitaufwendige und fehleranfällige manuelle Prozesse zurückgreifen zu müssen. Von ihrem gesetzten Cloud-Partner Microsoft waren sie dabei so begeistert, dass sie zwischenzeitlich auf lokale Rechenzentren verzichten und sämtliche internen Prozesse auf das Cloud-Universum umgestellt haben. »Wir verfolgen eine Cloud-first-Strategie!« – Ganz im Zeichen vom Ende der Datensilos, wie es auch Philip Weber kommen sieht, der als zweiten Use Case die Dienste von CloudRail schildert:

Sie haben sich darauf spezialisiert, Maschinen IoT-ready zu machen und in Microsofts Azure-Cloud zu bringen. Unterschiedliche Anforderungen in unterschiedlichen Branchen, verschiedenste Techniken, ältere Anlagen (Retrofit) – dank Abstraktion alles kein Problem für CloudRail. Mit einem einheitlichen Datenmodell, der Nutzung der IODD-Datenbank und striktem Setzen auf Standards, wie das IO-Link-Protokoll, schaffen sie es, den IoT-Plug-and-Play-Gedanken effektiv umzusetzen. In nur wenigen Stunden lassen sich erste Proofs of Concept zeigen. Wer das Ergebnis dann weiter auf das Unternehmen erstrecken möchte, profitiert zusätzlich von CloudRails Zentralisierungsstrategie. Wenn die Maschinen schon zwecks IoT an die Cloud angebunden sind, so können – nicht zuletzt auch im Sinne des Datenschutzes – beispielsweise die regelmäßigen Updates zentral gesteuert werden.

Für den Anwender bringt IoT damit zahlreiche Vorteile mit sich. Predictive Maintenance: Ich weiß jederzeit, wie es meinen Maschinen geht und wann wo nachgerüstet werden muss. Das manuelle Nachsuchen entfällt. Darüber hinaus reduziert es Ausfallzeiten durch etwaige unvorhergesehene Vorfälle zwischen den Wartungsintervallen. Dies gilt für die exemplarischen Transportfahrzeuge, die mit Cargobulls Telematics-Sensortechnik ausgestattet sind, genauso wie für den softwareseitigen Zustand jeglicher von CloudRail angebundenen Maschinen. Durch die Möglichkeit, seine Anlagen remote zu managen, fallen auch vielfach Reisezeiten weg. Das so freigewordene Kapital lässt sich für neue Investments einsetzen. Um sich leicht davon überzeugen zu können, dass die Use Cases auch im eigenen Unternehmen funktionieren, halten sowohl Schmitz Cargobull als auch CloudRail passend geschnürte Pakete für die ersten Schritte bereit, auf die, wenn gewünscht, sodann weiter aufgebaut werden kann. Übereinstimmend hält auch Thomas Frahler von Microsoft das Anbieten von Bundles, paketierten Services, für unerlässlich, um dem Wachstum und den Marktbedürfnissen vollständig gerecht zu werden.

Podcast Interview

Herzlich willkommen zum IIoT-Use-Case-Podcast. Ich begrüße Thomas Frahler von Microsoft, Michael Schöller von Schmitz Cargobull und Philip Weber von CloudRail. Hi, in die Runde! Schön, dass ihr mit dabei seid. Starten wir einfach mal mit einer kurzen Vorstellungsrunde. Thomas, magst du dich kurz vorstellen, und was du als Person genau bei Microsoft beziehungsweise im Rahmen der Azure-Plattform verantwortest und was ihr für Kunden habt?

Thomas

In meiner Rolle darf ich mich Business Lead für IoT schimpfen. Ich übersetze das immer gern als Geschäftsverantwortlichen für den deutschen Markt bei Microsoft. Seit 2010 bin ich beim Unternehmen und habe damals auch im IoT-Bereich angefangen – nur haben wir es damals noch nicht wirklich so genannt. Da waren wir noch nicht so viel auf der Cloud-Plattform unterwegs, sondern da war es eher das ganze Embedded-Gedöns. Heute ist das natürlich eine ganz andere Welt. Wo wir ganz stark unterwegs sind, ist natürlich der Bereich Maschinenbau, Manufacturing, Automotive. Da sehen wir ganz, ganz viel, wo Kunden oder Unternehmen Projekte anfangen, weil sie sich dahingehend weiterentwickeln wollen. Sei es, intern Effizienzen gewinnen oder tatsächlich das Portfolio an Produkten zu erweitern. Da sind wir sehr aktiv, und ich freue mich, in der Funktion dabei zu dürfen.


Sehr schön. Darauf werde ich auch gleich noch mal im Detail zurückkommen. Michael, magst du dich auch kurz vorstellen und was zu euch sagen beziehungsweise zu dir als Person, und was ihr als Kerngeschäft genau macht?

Michael

Sehr gerne. Mein Name ist Michael Schöller. Ich bin seit Ende 2017 bei der Schmitz Cargobull AG und dort für den Bereich Infrastruktur und IT-Services zuständig. Dort sind wir für die digitale Transformation der Schmitz Cargobull verantwortlich. Im Fokus stehen dabei vor allen Dingen Technologien von Microsoft – Stichwort Office 365, Azure Synapse, Azure Data Explorer, Event Hubs und viele mehr. Wir verfolgen also wirklich eine Cloud-first-Strategie, die wir zusammen mit Microsoft in den letzten Jahren auch sehr erfolgreich umgesetzt haben.


Dann würde ich an dich übergeben, Philip. Magst du die Vorstellungsrunde kurz abschließen, auch was zu dir als Person sagen, und zu euch als Unternehmen?

Philip

Gerne. Philip Weber, ich bin Partnermanager bei CloudRail, betreue die Microsoft und auch Microsoft-Partner, die dann basierend auf den Azure-Services Lösungen bauen. Wie du vorhin schon gesagt hattest – eine sehr gute Intro unser Lösung: Wir haben eine Technologie entwickelt, mit der man industrielle Maschinen und Anlagen einfach mit Azure Services verbinden kann. Das ist einerseits ein Gateway in unser Betriebssystem installiert und anderseits eine Device-Management-Lösung, über die ich später noch mehr erzähle. Damit kann ich dann neue Anlagen über OPC-UA, aber auch ältere Anlagen sehr einfach an Microsoft Azure anbinden.


Da würde ich gleich im Detail nachfragen. Bevor wir dazu kommen, ganz kurz als Einstieg: Thomas, wahnsinnig, was für Entwicklungen Microsoft mit der Azure-Cloud-Plattform hingelegt hat! Ich glaube, fast jeder, mit dem ich spreche, aus dem Industrieumfeld arbeitet mit euch als Anwender oder als Partner. Und natürlich auch der Aktienkurs – innerhalb der letzten fünf Jahre habt ihr, glaube ich, verfünffacht, von 60 auf aktuell knapp 300 USD gestiegen. Also läuft bei euch! Ich würde zum Einstieg ein bisschen von den Marktentwicklungen hin zur Azure-Plattform kommen. Du hast gerade gesagt, IoT, damals habt ihr das noch nicht so genannt – was passiert heute am Markt, und wo siehst du die Potenziale vor allem für das Thema IoT für die Industrie?

Thomas

Wo ich tatsächlich gerade viel Bewegung sehe, ist, dass wir aus dieser Early-Adopter-Phase langsam herauswachsen. Also IoT wird Mainstream, mehr und mehr. Verschiedene Studien, die wir selber gemacht haben oder die man über IDC oder andere Anbieter bekommt, sagen alle, 80 oder 90 Prozent haben sich damit schon auseinandergesetzt. Die haben natürlich unterschiedliche Reifegrade, aber die Motivation und Intention dahingehend, Projekte umzusetzen, ist auf einem sehr, sehr hohen Niveau.
Wo geht da so ein bisschen die Entwicklungen hin; was ist gefragt am Markt? Ich denke, eine Vereinfachung der Adaption durch zum Beispiel paketierte Angebote, mehr Out-of-the-Box-Lösungen, Ready-to-go und so – ich glaube, dazu hören wir nachher noch mehr: Das ist natürlich etwas, das kommt. Denn Projekte – wir kennen es – können relativ komplex sein, aber man möchte relativ schnell starten können, und mit etwas Gutem starten können. Ein anderes Thema, das seit einiger Zeit prominent wird, ist natürlich die starke Einbindung von künstlicher Intelligenz. Dass eine bessere datenbasierte Vernetzung gesamtheitlicher Abläufe und Produktionsabläufe im Unternehmen entstehen kann. Dann lassen sich viele Sachen erarbeiten, wie verringerte Ausfallzeiten, verringerter Ausschuss, effizientere Einbindung von Services zum Beispiel. Oder durch schnelles Beheben von Störungen, und so weiter, und so fort. Also dieses abteilungsübergreifende Vernetzen von Daten gehört, wie ich meine, auch dazu. Es gibt heutzutage noch sehr viele Datensilos.
Eine weitere Komponente, die dann auch noch kommen wird, ist der Einsatz von produktiveren Maschinen und Robotern, die dem Menschen immer mehr und mehr unter die Arme greifen werden – da sehen wir sehr, sehr viel Nachfrage. Und wo ganz viele Kunden von uns bereits hingehen, sind auch die ganzen Geschichten mit Equipment Asset Services, Product Asset Services. Also dass die Geschäftsmodelle dahingehend angepasst werden. Wo ich mittelfristig auch noch sehr viel Potenzial sehe, ist das ganze Thema Nachhaltigkeit – wie kann man Produktion nachhaltiger gestalten? Welche Investments muss man da tätigen? Ich glaube, da gibt es ein ganz großes Potenzial für First-Mover; also die, die an erster Stelle aktiv sein werden. Die werden wahrscheinlich über die nächsten Jahre auch davon profitieren, nicht gezwungen zu sein, Investments dann zu tätigen – sondern die haben eben die Zeit vorher genutzt.


Ja, vollkommen. Das war ein wirklich guter Einstieg und auch mal eine Übersicht an Potenzialen, die du am Markt siehst.
Jetzt würde ich ein bisschen in den Use Case einsteigen, zuerst mit euch, Schmitz Cargobull, um zu verstehen, welche Potenziale ihr hier nutzt und welche Technologien der Azure-Cloud-Plattform hier zum Einsatz kommen. Vielleicht starten wir mit einer kleinen Verortung des Themas. Michael, kannst du was über euer Projekt erzählen und ein bisschen ein virtuelles Bild mitgeben? Wie sieht es bei euch vor Ort aus und worum geht es überhaupt?

Michael

Gerne. Bei unserem Projekt ging es um das Thema Telematik-IoT. Das heißt, unsere Schwesterfirma, die Cargobull Telematics, ist seit ungefähr 16, 17 Jahren dabei, das Thema Telematics voranzutreiben. Es waren ausgewählte Kunden dabei, die die Thematik einleiten wollten, Pharmafirmen, et cetera. Das Thema wurde dann immer weiter ausgebaut – so weit, dass wir 2018 angefangen haben, jeden Kühl-Trailer mit einer eigenen Telematics-Einheit zu bestücken. Das heißt, jeder Kühl-Trailer, der hier aktuell das Werk verlässt, hat eine eigene Telematics-Einheit mit einem Zweijahresvertrag, wo der Kunde auf unser Portal geonboardet wird und wo ihm so die Möglichkeiten der digitalen Überwachung mitgegeben werden.

Mittlerweile sind wir an dem Punkt, dass wir ab diesem Jahr JEDEN Trailer ausstatten werden. Jeder Trailer, der hier das Werk verlässt, wird eine Telematics haben, sodass wir auch schnell mit einer signifikanten Anzahl an Trailern rechnen werden. Und dies war auch so ein bisschen der Anstoß des Projektes: Wir hatten schon Portal eins und zwei entwickelt, auch selbständig mit anderen Partnern. Hierbei hat sich herausgestellt, dass Portal zwei nicht den Marktzuwächsen gerecht wird, wie wir es tatsächlich benötigten. Da wir grundsätzlich bei Schmitz Cargobull eine Cloud-first-Strategie entwickelt haben, war natürlich auch Microsoft unser gesetzter Partner, und so fingen wir an, das Portal von null auf neu zu entwickeln. Wir haben hier keinerlei alte Software, keinen alten Softwarecode mehr benutzt. Wir mussten das komplexe Produkt innerhalb kürzester Zeit neu entwickeln, und hier hat uns natürlich auch Microsoft-Technologie geholfen. Wir haben unter anderem verschiedene hoch skalierbare Datenbanken im Einsatz, den Azure Data Explorer beispielsweise, Cosmos DB zum Teil. Hier konnten wir schön auf die Microsoft-Mittel aufsetzen, sodass es überhaupt möglich war, dies in so kurzer Zeit zu realisieren.


Kannst du kurz Telematic für mich definieren? Du hattest die einzelnen Kühltransporter beschrieben. Einfach, dass man eine Idee bekommt, was das bedeutet?

Michael

Gerne, klar! Der heutige Disponent will natürlich immer wissen, wo ist seine Ware? Ist sie gut gekühlt? Habe ich hier ein Problem? Ist meine Bremse vielleicht kaputt? – Sprich, den kompletten Transport zu überwachen ist heute ganz wichtig. Gerade das Thema Pharma, wenn wir das als Beispiel nehmen. Stichwort Covid-Transporte. Es war elementar wichtig, dass die genau wussten, wo ist der Trailer gerade? Ist der auch in Sicherheit? Ist die Kühlkette eingehalten worden? Klar, bei Impfstoff enorm wichtig. Dafür ist unsere Telematics da; die liefert dem Kunden alle Daten, digital in einem Portal zu seiner Verfügung.


Jetzt hattest du gerade gesagt, es geht um ein Portal eins und zwei? Das heißt, ihr habt eine Plattform entwickelt, mit sowohl Kühlungsdaten als auch Ortungsdaten und so weiter, irgendwo von euren Trailern im Feld, die irgendwo fahren?

Michael

Exakt. Die Trailer sind komplett vernetzt. Das heißt, wir haben bis zu 200 Sensoren – je nachdem, welches Paket man da bucht –, die ausgelesen werden. Die werden dann dem Kunden aggregiert in einem Portal oder, wenn er es möchte, auch direkt per API in seinem ERP-System beispielsweise zur Verfügung gestellt. So hat er darüber die vollkommene Kontrolle: Wo steht mein Trailer? Was ist da gerade los? Fährt das noch? Bekomme ich eventuell ein Problem? – So haben die Kunden den besten Überblick über ihre Ware und über ihre Trailer.


Eure Kunden sind also die Disponenten? Oder mit welchen »Stakeholdern«, Kundengruppen arbeitet ihr hier klassischerweise?

Michael

Grundsätzlich alle großen Transportfirmen. Speziell die Disponenten arbeiten natürlich enorm damit. Die sind dafür zuständig, den ganzen Verkehr im Tagesgeschäft zu bearbeiten, den Überblick zu behalten. Aber auch der Geschäftsführer gehört dazu, der wissen will, ist gerade alles unter Kontrolle? Aber im Grundsatz ist es so, dass der Disponent der Hauptbearbeiter ist, der schaut, wo gerade seine Ware ist.


Du hattest gerade auch von verschiedenen Kennzahlen und Daten gesprochen, die beispielsweise für einen Disponenten beziehungsweise eine Transportfirma interessant sind. Sind das primär solche Themen – Kühlungskette, Ortung, vielleicht auch Sicherheitsdaten, ein Überblick fürs Management –, die euch interessieren? Kann man die clustern?

Michael

Vor allen Dingen das Thema Kühlung ist ganz wichtig, Lebensmitteltransporte. Heute ist es so, wenn bei Anlieferung, zum Beispiel beim großen Lebensmittelhersteller oder Verkäufer, nicht ausgewiesen werden kann, dass die Kühlkette eingehalten worden ist, dann wird die Annahme der Ware verweigert. Das heißt, wenn ich heute zu meinem großen Aldi gehe, kann ich sicher sein, die Kühlkette wurde eingehalten, weil es da klare Regeln und Konzepte für den Nachweis gibt. Du musst nachweisen können, dass im Trailer die Temperatur xy war, und nicht höher. Das muss zertifiziert nachgewiesen werden – das ist enorm wichtig. Auch für Pharmafirmen das Thema Transport – wo ist denn gerade mein Trailer? Wenn ich hochwertigen Impfstoff habe, möchte ich natürlich wissen, wo das gerade ist, damit ich sicherstellen kann, dass der nicht einfach gehijackt und sonst was damit angestellt wird.

Das sind zwei überaus wichtige Themen. Aber natürlich auch in Zukunft – wir wollen auch weitergehen –, was das Thema Predictive Maintenance angeht. Je mehr Daten wir sammeln, desto mehr Vorhersagen werden wir dem Kunden geben können. So entwickeln wir uns kontinuierlich weiter.


Wenn du beispielsweise über Nachweise sprichst, oder über bestimmte Zertifizierungen, die da sein müssen, oder Ortungsdaten. Wie funktioniert das heute, wie hat das früher funktioniert? Ist das dann manuell passiert?

Michael

Mit dem Temperaturschreiber auf dem Trailer, also analog. Aber mittlerweile wollen alle einen digitalen Temperaturschreiber – wird auch verlangt. Deshalb ist der Fokus auch immer mehr in Richtung Telematics.


Wenn wir noch mal zum Portal kommen, das du angesprochen hast: Das heißt, wir haben verschiedene Trailer, die irgendwo im Feld unterwegs sind. Wir haben Temperaturdaten, Ortungsdaten, bestimmte zu erbringende Nachweise. Diese ganzen Daten müssen ja irgendwo mit einer bestimmten Intelligenz in die Cloud gelangen. Ob das jetzt private oder public ist, sei mal dahingestellt, aber wie funktioniert das? Wie gelangen die aus der Infrastruktur in die Cloud?

Michael

Letztendlich ist es so, dass wir ein Telematics-Modul im Trailer eingebaut haben. Dort ist eine SIM-Karte enthalten und dort werden Daten verschlüsselt via VPN an Microsoft geschickt. Dort nimmt sie der Event Hub entgegen und dort fließen sie in die Prozessierung hinein. Nach bestimmten Regeln werden die Daten dann vorgehalten und in der Datenbank gespeichert und schließlich automatisch für den Kunden aufbereitet. Das Processing-Thema ist in der Tat extrem komplex, weil es verschiedene Regeln gibt. Die müssen auch eingehalten werden, sodass am Ende auch immer die richtigen Daten für den Kunden dabei herauskommen.


Das heißt auch, ihr habt einen Bereich mit Daten, die nur für euch intern sind, und welche, die extern an eure Kunden rausgehen? Das unterscheidet ihr wahrscheinlich in Bereichen in der Cloud?

Michael

Nein, für uns ist extrem wichtig: Die Daten gehören dem Kunden. Das heißt, der Kunde hat sämtliche Daten zur Verfügung, in Abhängigkeit vom Modul, das er bucht. Es gibt natürlich einen Service, »Gib mir nur GPS-Daten«, beispielsweise. Aber es gibt auch das volle Paket, dann bekommt er alle Sensordaten, die sein Trailer verfügbar hat. Das ist völlig klar – unser Credo ist ganz wichtig: Die Daten gehören dem Kunden, nicht uns.


Cloud-first-Strategie – bedeutet das, dass ihr ganzheitlich innerhalb des Unternehmens auf Cloud-Technologie setzt? Sowohl in Richtung Kunde, wo du von verschiedenen Modulen oder Services gesprochen hast, als auch intern bei euch, wo ihr mit der Cloud arbeitet?

Michael

Richtig. Wir haben in den letzten vier Jahren unsere kompletten Rechenzentren abgelöst. Wir haben keine lokalen Rechenzentren mehr. Wir sind in den letzten Jahren komplett in Richtung Microsoft Azure migriert. Wir haben alles abgelöst, was nicht nach Azure migriert werden konnte – beispielsweise komplett unsere Oracle-Datenbank abgelöst, in Richtung SQL migriert. Wir haben wirklich ein komplett straffes Cloud-first-Programm durchgeführt, was nun auch mehr oder weniger abgeschlossen ist. Von daher sind wir sehr froh, einen Partner wie Microsoft zu haben.


Perfekte Überleitung! Thomas, ich gucke mal in deine Richtung. Michael hat gerade von Event Hubs und ähnlichen Services gesprochen. Das sind ja Services beziehungsweise Dienstleistungen, die ihr seitens Microsoft Azure zur Verfügung stellt. Wie muss ich mir das vorstellen und wie funktioniert das, dass ich dieses Wissen und diese ganzen Daten überhaupt in die Cloud bekomme? – Das sind wahrscheinlich diese einzelnen Services, oder?

Thomas

Genau, wir haben da verschiedene Services, wie beispielsweise Event Hubs oder einen Azure-IoT-Hub – die sind von Microsoft. Dann gibt es natürlich noch die Möglichkeiten, über Third-Party-Broker sozusagen in die Cloud hineinzukommen, wo dann auch ein ganz großer Baukasten an weiteren Services zur Verfügung steht, um Routing zu machen oder Analytics vorzunehmen, Daten zu speichern; in ein großes Data Lake hineinzugeben. Die Möglichkeiten sind da fast endlos, sage ich jetzt mal.


Also Event Hubs, der Service, wäre beispielsweise so, ich habe die verschiedenen Transportfirmen, die irgendwo ihre Telematics-Einheiten mit einem Temperatursensor als Service gebucht haben – und diese einzelnen Datenpunkte werden über die SIM-Karte, habe ich jetzt gelernt, in die Azure Cloud gespielt. Dort gibt es einen Service, Event Hubs, wo die Daten voraggregiert, verarbeitet und wahrscheinlich in einem Dashboard bereitgestellt werden? Kannst du das ein bisschen erklären?

Thomas

Vielleicht noch eine kurze Ausführung zu Event Hubs, IoT Hubs. Was für uns auch sehr, sehr wichtig ist, wenn wir in IoT-Projekten unterwegs sind: Brauchen wir eine bidirektionale Kommunikation oder einfach nur Kommunikation in eine Richtung? Das ist das, was zum Beispiel der Event Hub zulässt: dass Daten von Punkt A nach Punkt B geroutet werden. Das heißt, der Event Hub kommt beispielsweise nicht nur exklusiv in IoT-Projekten vor. Wohingegen der IoT Hub der klassische IoT-Service ist, wo ich zum Beispiel auch eine Message von der Cloud runter, auf mein Gerät oder sonst etwas, schicken kann, um dort wieder eine Aktion auszulösen. Also Maschine schickt Daten nach Punkt A, Cloud analysiert – oder in bestimmten Fällen kann das auch schon direkt am Gerät, »an der Edge« sozusagen, passieren –, Cloud empfiehlt dann Aktion B durchzuführen und schickt diese Nachricht wieder runter.
Das vielleicht noch mal ganz kurz zur Einordnung. Aber was wir dann bei uns haben, sind verschiedene Möglichkeiten, wie wir dann letzten Endes zum Dashboard kommen. Da gibt es die eine Welt, wo wir eine Art vorgefertigte Lösung haben, also einen Software-Asset-Services-Ansatz mit beispielsweise Azure IoT Central, wo dann verschiedene Azure-Services bereits so zusammengebaut worden sind, dass ich tatsächlich mein Dashboard schon da habe. Das kann ich auch bedienen, ohne eine Zeile Code zu schreiben. Wo ich mein Dashboard per Drag and Drop anpassen und relativ schnell einsteigen kann, ohne großes Programmier- oder IoT-Know-how zu haben. Und dann gibt es natürlich noch die andere Variante, wenn ich mir grundsätzlich eine eigene Plattform baue, oder bestimmte Regeln aufstelle, dass ich mit den einzelnen Services selbst da hinkomme, dass ich Storage brauche, dass ich Analytics brauche; dass ich zusätzlich eine Visualisierung, also einen Visualisierungsservice brauche. Die muss man dann manuell zusammenbasteln, um wieder zum Dashboard zu kommen.
Man kann also quasi einen schnellen Weg gehen – der hat aber dann auch bestimmte Limitierungen in der Tiefe. Wohingegen, wenn ich das mit den einzelnen genannten Bausteinen konfigurieren möchte, habe ich mehr Aufwand, aber habe natürlich einen sehr hohen Individualisierungsgrad.


Das hängt wahrscheinlich auch sehr stark von den Ressourcen ab, die ich auch intern bei mir im Unternehmen habe; und wahrscheinlich auch sehr von der Unternehmensgröße? Ihr habt ja sowohl mittelständische Kunden, die die Plattform nutzen, als auch größere Konzerne.

Thomas

Absolut. Tatsächlich gibt es da auch noch mal die Differenzierung in verschiedenen Abteilungen beispielsweise, auch bei größeren Unternehmen. Wo wir etwa bei der SaaS-Variante auch in einer Welt sind, wo… Das mag vielleicht wirklich ein großes Unternehmen sein, aber da gibt es eine Abteilung, die möchten schnell etwas starten. Da gibt es vielleicht auch nicht so viel Support von der IT; man arbeitet dann mit einem externen Partner zusammen und kann dann trotzdem relativ schnell zu einem Ergebnis kommen, ohne großartig auf die größere Infrastruktur des Unternehmens Einfluss nehmen zu müssen. Das ist also tatsächlich auch ein attraktives Angebot für alle Größen, aber grundsätzlich lässt sich schon sagen, dass wir einen Trend sehen: Große Unternehmen, denen viele Ressourcen zur Verfügung stehen, möchten sehr individuelle Lösungen haben, und kleinere Unternehmen bevorzugen schnelle Ready-to-go-Lösungen off the Shelf.


Da ist wahrscheinlich das Thema Partner auch wichtig. Da würde ich gleich in deine Richtung schauen, Philip – das Thema CloudRail, euer Unternehmen, ist ja auch ein Baustein, das in dem ganzen Partner-Ökosystem von Microsoft mit reinspielt, wenn ich solche ganzheitlichen Lösungen für die Zukunft aufbauen möchte. Ich denke mal, Thomas, da seid ihr relativ offen: Ihr habt mittlerweile ein riesiges Partner-Ökosystem an unterschiedlichsten Partnern, die ihr Skillset einbringen, um überhaupt solche großen Lösungen zu realisieren?

Thomas

Absolut, ja. Ich glaube, allein in Deutschland haben wir 30 000 oder 35 000? Jedenfalls eine ganze Menge an Partnern. Das sind natürlich nicht alles exklusiv IoT-Partner, sondern das bildet das ganze Microsoft-Universum ab. Aber ich denke, das ist auch eine der Stärken, die wir haben, bedingt durch unsere lange Existenz. Und dass wir eigentlich schon immer so ein partnerorientiertes Geschäftsmodell hatten. Ich glaube, im IoT-Bereich kommt es noch mal ein bisschen mehr zum Tragen, weil das Ökosystem an sich auch noch etwas komplexer ist als in vielen anderen Bereichen. Was wir zum Beispiel sehen, ist, dass einzelne Unternehmen ja nur sehr schwer ganzheitlich IoT-Projekte stemmen können. Es gibt so viele Kernkompetenzen, die man bei größeren Projekten zu bedienen hat. Da muss man als Partner links und rechts schauen, wer kann mit seiner Expertise einen Teil beisteuern? Wenn wir von einem IoT-Projekt sprechen – IoT-Projekte sind oft auch Transformationsprojekte –, brauchen wir eine bestimmte Komponente bei der Beratung. Hardware ist auch wieder ein ganz eigenes Universum. Baue ich was selber? Kaufe ich was ein? Konnektivität – geht es über die SIM-Karte? Mache ich es über andere Komponenten? Dann die Infrastruktur, die ich benutze – hybrid, in der Cloud, Private-Cloud? Dann kommen die ganzen Analytics-Sachen – Applikationsentwicklung, CRM, ERP, Einbindung in andere Geschäftsprozesse, Sicherheit und so weiter und so fort. Da habe ich also eine ganze Kette, und da versuchen wir mit unseren Partnern so einen Ansatz zu fahren, dass wir wie ein Hub funktionieren, wo wir einen Partner-to-Partner-Ansatz ermöglichen. Wo wir mit verschiedenen Partnern paketierte Angebote geben, wo wir in bestimmten Bereichen also Empfehlungen geben können. Und das Schöne dabei ist, die Unternehmen sind in der Regel schon abgestimmt, die Technologien sind abgestimmt – das erleichtert die Arbeitsschritte, dass es schneller vorangeht. Das erleichtert im Normalfall Skalierbarkeit und Schnelligkeit insgesamt. Davon profitieren dann nicht nur die Endnutzer, sondern tatsächlich auch wir als Unternehmen beziehungsweise die Partner, die dann auch skalierbarer arbeiten können.


Michael, wie macht ihr das denn bei Schmitz Cargobull; wie seid ihr intern aufgestellt? Habt ihr ein eigenes Team, was sich mit den Themen beschäftigt, oder ist das ein bisschen durch dich orchestriert?

Michael

Das ganze Thema Cloud, IoT ist durch uns orchestriert. Wir sind in der Infrastruktur dahingehend aufgestellt, dass wir uns auch um die Softwareentwicklung hier im Unternehmen kümmern. Also all das, was Individualsoftware ist, außerhalb von SAP, läuft durch meine Abteilung. Wir schauen, was der beste Ansatz für Schmitz Cargobull ist, und versuchen, den Partner mit auszusuchen, sodass wir immer eine nachhaltige Lösung für die einzelnen Abteilungen bekommen. Aber am Ende, wenn jemand eine Anforderung hat, kommt er zu uns, wir schauen uns das Thema an, und dann gucken wir gemeinsam mit dem Fachbereich, was die beste Lösung ist – aber so, dass wir auch immer die Auswahl für die Anbieter, die Vendoren haben, sodass wir sicherstellen können, dass unsere Standards eingehalten werden.


Um die Überleitung zum Use Case zwei zu machen: Wir wollen auch ein bisschen über skalierbare Lösungen sprechen. Vor allem, wenn ich mir vorstelle, ich habe viele verschiedene Datenpunkte, verschiedene Sensoren, aber auch in Richtung Smart Factory gedacht oder Supply Chain – das ist ja ein wahnsinnig breites Thema, wo ich überhaupt erst mal diese einzelnen Daten skalierbar anbinden muss. Philip, das ist ja euer Kerngeschäft. Kannst du uns ein bisschen abholen, was die Relevanz von Standards und Skalierbarkeit generell ist? Vielleicht auch in Bezug auf Cargobull oder in dem Bereich, in dem ihr unterwegs seid.

Philip

Gern. Ich habe ja gerade, wenn ich die Supply Chain vernetzen will, oft die Situation, dass ich die ganze Lieferkette vernetzt habe, aber zwischendrin meine industriellen Maschinen, meine Anlagen, meine Produktionsstätten nicht vernetzt sind und das ein bisschen wie eine Black Box ist – wo ich quasi das SAP-System habe, das mir Auswertungen gibt, die allerdings meistens WENIG über die Maschinen selbst aussagen. Also wie sind die einzelnen Maschinenteile? Wie werden die genutzt? Was passiert jetzt gerade in der Produktion – und nicht vor 24 Stunden. Da haben wir uns sehr, sehr stark spezialisiert, Maschinen anzubinden, an Azure-Services, und greifen an der Stelle auf, die Thomas schon erwähnt hatte: Wir schicken die Daten entweder an den IoT Hub, wo ich dann flexibel Anwendungen bauen kann. Oder in IoT Central, wo wir die Daten so bereitstellen, dass ich mir einfach die Dashboards zusammenschieben kann. Das heißt, ich kann mit der Lösung innerhalb weniger Stunden wirklich ein Proof of Concept aufbauen. Wenn ich schauen will, welche Insights, welche Erkenntnisse liefert mir ein IoT-System an der Maschine, kann ich das mit CloudRail einfach schnell ausprobieren.
Das haben wir dadurch geschafft, dass wir Standards nutzen, wie einerseits bei neuen Maschinen OPC-UA. Wobei die meisten, die den Podcast hören und aus der Produktion kommen, wahrscheinlich jetzt denken werden: das meiste da draußen IST aber nicht OPC-UA, sondern irgendetwas anderes. Alte Steuerungen von Siemens, Rockwell, B&R; da laufen verschiedene Protokolle. Das heißt, ich habe da eine sehr aufwendige Arbeit, um diese Protokolle zu übersetzen, mit bestimmter Middleware, und dann die Schnittstellen zu den Azure-Services zu konfigurieren – und das haben wir aus einer Hand bereitgestellt. Was hier wiederum sehr, sehr wichtig ist, wie Thomas schon erwähnte, ist das Ökosystem. Denn wir binden die Maschine an, die Daten sind in Azure, und dann ist unser Job sozusagen erledigt und es greift entweder eine IT-Abteilung, wie zum Beispiel von Schmitz Cargobull, die Daten auf und baut ihre Services, oder ein Microsoft-Partner tut dies. Also ein IT-Unternehmen, das auf IoT-Services spezialisiert ist, allerdings in Maschinenanbindung nicht unbedingt sein Kerngeschäft hat.


Du hast gerade gesagt, über eine Middleware – wie machen Kunden das denn heute? Werden primär Insellösungen geschaffen, wo man versucht, Daten aus unterschiedlichen Systemen anzubinden?

Philip

Das kommt darauf an; da sehen wir ganz verschiedene Ansätze. Die hängen auch nicht mal so stark von der Unternehmensgröße ab. Es gibt ganz viele U-Boot-Projekte, die von Fachabteilungen durchgeführt und, sobald sie erfolgreich sind, dann dem Management berichtet werden. Es gibt allerdings auch von oben getriebene Initiativen. Was alle gemeinsam haben, ist: Wenn ich eine Maschine manuell über eine Middleware anbinde – oder auch über ein Gateway, was als leerer Router bei mir ankommt, ich mache ein Software drauf und mache das selbst –, dann habe ich immer das Problem, dass ich das nach einer gewissen Zeit schon hinbekomme, aber bei der nächsten Maschine wieder bei null bin. Bei der nächsten Maschine habe ich dann die Erkenntnisse von der letzten, aber muss wieder manuell anfangen, die Datenpunkte aus der Steuerung zu extrahieren, die Datenpunkte auszuwerten… und ich komme ja auch oft nicht richtig auf die Steuerung. Etwa wenn das Fremdmaschinen sind.


Deswegen haben wir für dieses Retrofitting, das Ausstatten von älteren Anlagen, den Weg gewählt: Wir arbeiten mit einem Sensorpartner – das ist die ifm electronic, müsste in der deutschen Industrie auch bekannt sein – und haben ein Plug-and-Play-System entwickelt, was sämtliche Sensoren, die mit dem IO-Link-Protokoll ausgestattet sind, automatisch in Azure hinzufügt und dort ein einheitliches Datenmodell von Microsoft nutzt. Also wir nutzen das Microsoft-Plug-and-Play-System; das bedeutet, dass die Sensoren mit sämtlichen anderen Plug-and-Play-Geräten kommunizieren können, auf einer einheitlichen Datenbasis. Dadurch kann ich die Anwendungsfälle nahtlos skalieren, weil ich nicht anfangen muss, diese Schnittstelle zu konfigurieren und später wieder anzupassen.


ifm ist auch einer unserer Partner aus dem Netzwerk, da haben wir schon mal was zum Thema IO-Link und diesen Sensorenanbindungen gehört. Vielleicht noch mal eine Frage: Es geht darum, die Erkenntnisse der Datenanbindung zu nutzen? Wie macht ihr das? Arbeitet ihr mit einer vorgefertigten Datenbank, die diese Definitionen der Erkenntnisse schon mitbringen?

Philip

Bei uns läuft eine Datenbank im Hintergrund mit der wir sämtliche IO-Link Sensoren am Markt, also nicht nur ifm, sondern herstellerübergreifen anhand von ihren Seriennummern identifizieren. Anschließend werden über unsere Device Management Cloud die Daten automatisch normalisiert. Das heißt die Sensorwerte kommen dann in einem Format an, mit dem ich sofort arbeiten kann. Das ist das zum Beispiel Temperatur in °C oder Geschwindigkeit in mm/s2. Damit kann ich innerhalb von Sekunden einen Sensor in das Azure Ökosystem einbinden und auch als Plug & Play Gerät nutzen. Dadurch, dass die Plug & Play zertifiziert sind, können die Sensordaten zusammen mit Daten von Nichtindustriesensoren, Smart Home Sensoren genutzt werden.


Wenn ich darüber nachdenke, das ist ja auch eine wahnsinnig heterogene Infrastruktur. Wie sieht es da aus mit dem Thema Sicherheit? Ich will dieses nicht zu sehr stressen, aber es gibt ja auch einige Sicherheitslücken, gerade wenn ich alte Steuerungen anbinde, oder ältere Infrastruktur generell – wie löst ihr dieses Thema?

Philip

Das ist für uns ein ganz großes Thema, weil wir natürlich genau an der Stelle sind, die sehr kritisch betrachtet wird. Sobald ich diese Maschinen an das Internet anbinde – was ich ja für einen IoT-Service tun muss –, habe ich immer ein gewisses Sicherheitsrisiko geschaffen. Da war ja vorher die Lösung, dass ich diese Maschine einfach NICHT verbinde, und dadurch passiert auch nichts; so war die Denke. Für uns ist diese konventionelle Antwort mit IoT nicht mehr denkbar, denn wenn ich die Daten vorhanden haben will, muss ich sie auch verbinden.
Es gibt einige Sicherheitsfeatures, die wir integriert haben: Es gibt einen TPM-Chip, der verhindert, dass die Hardware kopiert werden kann. Wir haben alle USB-Ports und andere Anschlüsse, die nicht benötigt werden, blockiert. Und wir kommunizieren Ende-zu-Ende-verschlüsselt mit Microsoft Azure. – Das sind alles Antworten, die man findet, um dieses Sicherheitsthema vorerst zu klären. Warum vorerst? Solange ich nicht dafür sorge, dass diese Geräte dauerhaft geupdatet werden, und zwar automatisiert, werde ich es nicht schaffen, IoT-Anwendungen sicher zu halten. Deswegen ist einer unserer Hauptnutzen, den wir Kunden bieten, ein zentrales Management von Gateways sowie Updates, die zentral ausrollbar sind. Das heißt, ich kann die Updates steuern, kann sie planen, und ich bin nicht mehr davon abhängig, dass jemand mit einem Laptop oder einem USB-Stick zu den Gateways in der Produktion geht und diese updatet. Denn unserer Meinung nach sehen diese Gateways dann NIE ein Update.


Wir sprechen ja auch über Skalierung – ist das dann bezogen auf EINEN Standort? Viele Unternehmen sind ja jetzt auch global aufgestellt, mehrere Standorte. Wie funktioniert diese Skalierung beispielsweise der Security oder der Anbindung der verschiedenen Geräte, Sensoren, Maschinen?

Philip

Ich habe gerade ja schon erwähnt, dass die Updates zentral gesteuert werden können. Das sind nicht nur die Updates, sondern das ganze System funktioniert aus einer Software-as-a-Service-Lösung, der Device Management Cloud. Mit der kann ich die Konfiguration der Sensoren oder den OPC-UA-Servern remote machen. Das heißt, ich habe ein Team, entweder sind das Anlagetechniker des Kunden oder es ist ein Partner von ifm. Die installieren die Hardware lokal; anschließend ist da ein kleiner QR-Code mit der Seriennummer auf der Box, und den kann ich einem zentralen IoT-Team schicken. Das kann zum Beispiel in München sein, und der Kunde ist in Bonn oder in Mannheim, und ich kann diese Geräte komplett remote konfigurieren; ich brauche kein Team mehr vor Ort. Das ermöglicht dann, diese Lösung von einem Standort aus erst mal über weitere Maschinen auszurollen und mir dann zu überlegen, was gibt es noch für weitere Use Cases? Welche Maschinen kann ich noch optimieren? Welche Services kann ich noch umsetzen?
Dann kann ich im nächsten Schritt überlegen, wie bringe ich diese Lösung mit den globalen Werken zusammen? Es ist ja auch oft in der deutschen Industrie das Thema, dass wir einen Standort haben, und andere Standorte irgendwo auf der Welt sind. Sei das Brasilien, Südafrika oder China. Das ist natürlich von Vorteil, wenn ich das IoT-Team nicht mit dem Flugzeug da hinschicken muss, sondern die ganze Sache remote konfiguriert werden kann.

Ich werde immer wieder gefragt: Business Case? Um auch ein bisschen zu verstehen, wenn ich solche Technologie einsetze und mich für die Zukunft skalierbar aufstellen will, was ist denn hier in diesem konkret besprochenen Fall – mit der skalierbaren Anwendung der Geräte, der Sensoren – der Business Case? Wann spare ich mir Geld?

Philip

Ich spare mir im Endeffekt Geld, sobald die Einsparung – sei das erhöhte Kapazität, die mir meine Produktivität erhöht; sei das geringerer Stillstand der Maschine; oder auch geringerer Ausfall – größer ist als die Kosten des Systems. Dann habe ich am Ende mit der Lösung Geld gespart. Das ist oft nicht so trivial, weil meistens bei den IoT-Use-Cases ja das Problem ist, dass die Ist-Daten noch nicht aufgenommen werden. Ich kann teilweise ganz schwierig einen Vorher-Nachher-Vergleich machen. Wir haben zusammen mit unseren Integrationspartnern und Microsoft Azure eine relativ pragmatische Antwort darauf: Es gibt ein Bundle mit einem Systemintegrator, das kostet nicht sehr viel. Das hat einen abgespeckten Rahmen, das heißt, ich habe ein paar Sensoren, ich habe ein paar Services dabei. Dann starte ich einfach mal – ich binde das an, probiere das aus. Wir haben wirklich mit Partnern innerhalb eines Tages die Maschine angebunden und die Azure-Services konfiguriert. Dann kann ich das System betrachten, und was der Nutzen des Systems ist, ohne gleich einen Millionen-Euro-Consulting-Vertrag zu unterschreiben. Sondern ich kann pragmatisch eine Maschine anschauen, mit der nächsten weitermachen, und dieses ganze System wächst dann organisch.
Man kann es ein bisschen betrachten wie ein Lego-Set. Wenn ich bei einer Maschine merke, da fehlen bestimmte Daten: Die Sensoren binden wir in einem IO-Master-Modul an, da passen acht Stück rein; und wenn nur fünf Sensoren drin sind, gehe ich einfach morgen hin und stecke einen sechsten dazu und binde ihn mit ein paar Klicks in Azure ein. Ohne dass ich großartig programmieren oder nachkonfigurieren muss. Deswegen sehen wir meistens, dass die Use Cases wachsen. Nachdem ein erster Proof of Concept gemacht wurde, wird evaluiert, welche weiteren Maschinen es gibt und welcher Nutzen gerade der größte ist.


Michael, wie sieht denn bei euch der Business Case aus? Du hattest ja auch von den einzelnen Potenzialen gesprochen, die ihr heben wollt. Wie geht ihr das Thema an?

Michael

Wir verkaufen die Zugänge beziehungsweise die einzelnen Telematics-Abos, und das ist auch unser Business Case. Die entsprechende Firma zahlt monatlich einen Beitrag, abhängig von dem Vertrag, welchen sie abonniert hat, und darüber generieren wir unseren Umsatz und wollen darüber hinaus natürlich wachsen. Das ist aus unserer Sicht ein sehr guter Business Case.


Generell sparen sich wahrscheinlich auch eure Kunden wahnsinnig viel Geld, wenn man bedenkt, dass ich die Möglichkeit habe, auf die ganzen Daten übergreifend zuzugreifen? Wo sonst Zeiten und Kosten entstehen, durch vielleicht zusätzliche Fahrwege oder manuelle Prozesse und Papierarbeit. Das habe ich jetzt zugänglich in einer Lösung?

Michael

Exakt. Das heißt, sie können bequem auf das Portal zugreifen, haben dort alle ihre Daten. Sie müssen sich um nichts weiter kümmern und haben immer permanenten Zugriff darauf. Das ist natürlich für die der Business Case schlechthin, klar!


Thomas. Wir haben jetzt zwei Use Cases ausgewählt. Ihr habt ja Kundenreferenzen und verschiedenste Success-Storys, die man online findet. Wie siehst du die Übertragung der Use Cases, die wir heute besprochen haben? Sind diese übertragbar? Siehst du das häufiger oder sind das alles individuelle Fälle?

Thomas

Absolut übertragbar. Wir hörten ja, dass wir grundsätzlich zwei verschiedene Ausprägungen haben. Das eine geht in Richtung Kosteneffizienz, also Kosten einsparen auf der Produktionsseite, damit ich wieder Kapital freischaufeln kann, das ich in andere Investments allokieren kann. Und der andere Case ist ja, damit Geld zu verdienen. Also das Geschäftsmodell darauf aufzubauen, dass die Kunden [unhörbar 0:39:02] kaufen. Die Cases, die wir da hatten, mit vorausschauender Wartung, Predictive Maintenance, mit einfach nur dem Monitoring der Maschinen – dass ich weiß, welche Daten geben mir die Maschinen überhaupt –, oder in die Richtung gehen kann, dass ich meinen Service effizienter gestalten kann – also dass ich nicht mehr viele Menschen weltweit durch die Gegend schicken muss, sondern remote Sachen erledigen kann, in der Anlage. Das sind Dinge, die lassen sich industrieübergreifend einsetzen und auch umsetzen, und so sehen wir das auch absolut bei den Anfragen, die wir in den letzten Jahren, derzeit und auch in Zukunft haben werden.


Was kommt in Zukunft hier noch? Du hattest am Anfang davon gesprochen, dass IoT irgendwo Mainstream wird. Glaubst du, das wird sich sehr stark weiterentwickeln mit den Themen, die du angesprochen hast? Siehst du noch weitere Themen? Wo sind wir in fünf Jahren?

Thomas

Sehr gute Frage. Ich denke, bis dahin IST IoT und KI schon Mainstream geworden. Bis dahin wird jedes Unternehmen schon in der ein oder anderen Form ein Projekt wirklich produktiv haben. Da ist dann wirklich nicht mehr die Frage, warum, wie und weshalb, sondern wie sieht die Skalierung in andere Bereiche aus? Wo vielleicht wirklich ganz spannende Sachen noch kommen könnten – das ist vielleicht noch mal ein bisschen weiter weg –, ist dann in eine Richtung, wo Kollegen von mir näher dran sind: Hyperscale Computing und Quantenmechanik. Dass wir dann noch schneller und noch besser zu Analysen kommen können; aber das ist wirklich noch Zukunftsmusik, noch fünf Jahre plus. Mein nächster Milestone ist tatsächlich erst mal, IoT, KI wird Mainstream, und dann gibt es verschiedene Komponenten auf Technologieseite, wie 5G oder Edge Computing, das natürlich weiter verfügbar sein wird und weiter adaptiert sein wird. Dann geht es in fünf Jahren darum, wie skalieren wir das wirklich auf das ganze Unternehmen, und nicht nur einzelne Bereiche?


Philip, hast du noch Ergänzungen von deiner Seite, wo wir in fünf Jahren sein werden?

Philip

Ich denke, dass sich in Zukunft diese Datensilos, die Thomas vorhin erwähnt hat, auflösen werden. Es wird alles da hingehen, dass Dinge in zentralen Systemen zusammenfließen. Weil ich natürlich als Fabrikbetreiber nicht für jeden Maschinentypen, für jede Produktionsstrecke ein extra Tool nutzen will. Sondern das soll alles zentral zusammenfließen, am besten einen einheitlichen Datenstandard nutzen. Und ich will mich natürlich auch nicht um eine Flotte von Gateways kümmern müssen, die ich updaten muss, sondern ich will, dass alles irgendwie zentral gesteuert ist und meine IT-Abteilung damit möglichst wenig Arbeit hat. Denn das erzeugt ja auch Kosten, wenn ich mich um Hardware und IoT-Services übermäßig kümmern muss.
 

Das war wirklich eine sehr spannende Session. Michael, auch noch mal vielen Dank für die Vorstellung eures Projekts, was du für Potenziale siehst und wie ihr die Azure-Cloud-Plattform im Einsatz habt. Danke auch Philip an dich, dass das das Thema der skalierbaren Anbindung der einzelnen Geräte, Sensoren et cetera erklärt hast. Das ist auch, glaube ich, kein so triviales Thema, von daher vielen Dank. Und natürlich auch an dich, Thomas, du hast hier die Runde auch Microsoft-seitig zusammengebracht, und ich glaube, da kommt auch noch vieles von eurer Seite in den nächsten Jahren. Ich bin gespannt darauf.
Vielen Dank für die Einblicke, und ich wünsche euch noch einen schönen Resttag!

Für Rückfragen stehe ich Ihnen gern zur Verfügung.

Questions? Contact Madeleine Mickeleit

Ing. Madeleine Mickeleit

Host & Geschäftsführerin
IoT Use Case Podcast