Do you want to see our content in English?

x
x

Energieeffizientere Gebäude durch IoT-Datenanalyse

node-divider.png

Klicken Sie auf den unteren Button, um den Inhalt von Spotify Player zu laden.

Inhalt laden

IoT Use Case Podcast auf Spotify anhören
IoT Use Case Podcast auf Spotify anhören
IoT Use Case Podcast auf anderen Plattformen anhören

IoT Use Case Podcast #90 - Microsoft + techem

Energiesparen mit der Cloud – In dieser Podcastfolge sprechen der Technologieriese Microsoft und der bekannte Energiedienstleister Techem über ihre Zusammenarbeit im IoT-Bereich und wie durch die Nutzung der Microsoft-Technologie Azure IoT in der Messdatenverarbeitung nachhaltige Energiemanagement-Lösungen und -Services bei Techem entstanden sind. 

Folge 90 auf einen Blick (und Klick):

  • [08:33] Herausforderungen, Potenziale und Status quo – So sieht der Use Case in der Praxis aus
  • [20:15] Lösungen, Angebote und Services – Ein Blick auf die eingesetzten Technologien
  • [36:31] Ergebnisse, Geschäftsmodelle und Best Practices – So wird der Erfolg gemessen

Zusammenfassung des Podcasts

Techem ist einer der führenden Energiedienstleister rund um Immobilien. In fast jeder dritten deutschen Mietwohnung findet man die intelligente Messtechnik. Doch nicht nur hierzulande: Insgesamt ist Techem mit über 50 Millionen Endgeräten in 19 Ländern “draußen im Feld” unterwegs. Seit vielen Jahren ist die Massenverarbeitung beim Energiedienstleister Tagesgeschäft. Doch wie erfasst er diese Massen an Daten?

Energie wird erzeugt, verteilt und dann verbraucht. Der Weg der Energie führt uns zu einigen Fragen dieses Podcast:

  • Erzeugung: Wie kann sie zum Verbrauch gematcht werden?
  • Netzverteilung: Wie kann ich Power Grids optimieren? Wie kann ich ein System mit verschiedensten Konnektoren und Schnittstellen der Assets so monitoren, dass ich Anomalien frühzeitig erkenne, sodass unter der Predictive Maintenance Eingriffe vorgenommen werden können? Wie können die Downtimes in den Netzen reduziert werden?
  • Verbrauch: Wie funktionieren Energiemanagement-Lösungen für Endkunden (z.B. via Dashboards)?


Im Podcast wird der konkrete Use Case angeschaut, den Microsoft gemeinsam mit Techem umgesetzt hat: Die IoT-Daten werden aus den Messgeräten herausgelesen und mithilfe des Azure IoT Hub als Stream an den Azure Data Explorer übermittelt. Dieser ist eine vollständig verwaltete Big-Data-Analyse-Plattform.  Er ermöglicht das Analysieren großer Datenmengen nahezu in Echtzeit. Immer, wenn das Gerät die Daten herausschickt, können sie sofort verarbeitet werden. Das heißt, man hat keine zeitlichen Verzögerungen oder Latenzen.

Mehr dazu und viele spannende Insights zum Projekt von Techem und dem ausgewählten Partner Microsoft gibt’s in Folge 90 des IoT Use Case Podcast. Am Mikrofon zu Gast: Malte Schulenburg (Senior Client Executive, Microsoft) und Dr. Roland Werner (Head of IT, Techem).

Podcast Interview

Heute haben wir eine sehr spannende Folge mit der Techem-Gruppe. Diese sind uns allen mindestens daher bekannt, dass die meisten von uns ein sogenanntes »Funkmessgerät« an der Heizung hängen haben. Man kann nur erahnen, wie viele Millionen Geräte davon in den Nutzeinheiten der Wohnungen und Gebäude draußen verbaut sind, und auch noch in der Industrie.

Vor allem spannend ist, wie erfasst denn Techem diese Massen an Daten? Gibt es die Möglichkeit bei der Heizkostenabrechnung Energieverbräuche vielleicht auf den Quadratmeter auch mal öfter im Jahr zu sehen? Und kann man diese Daten einsehen und, wenn ja, wie? Alle Antworten dazu und viele spannende Insights zum Projekt von Techem und ihrem ausgewählten Partner Microsoft erfahrt ihr genau jetzt. Und damit direkt ins Podcaststudio – let’s go!

Hallo Malte und Roland, herzlich willkommen im IoT Use Case Podcast. Schön, dass ihr heute mit dabei seid. Malte, wie geht es dir und wo erreiche ich dich gerade? Bist du im Homeoffice oder wo bist du unterwegs?

Malte

Schönen guten Morgen, Madeleine. Du erreichst mich tatsächlich im Homeoffice; ich bin im schönen Berlin. Es ist noch relativ kalt, aber die Sonne scheint.

Dann liebe Grüße, ich kann praktisch rüber winken. Und Roland auch schön, dass du dir die Zeit genommen hast und heute mit dabei bist. Wo bist du gerade unterwegs und wie geht es dir?

Roland

Mir geht es wunderbar. Ich sitze heute in unserem Headquarter Office in Eschborn vor den Toren von Frankfurt in meinem Büro.

Sehr schön, Eschborn kenne ich sogar. Ist da einiges an Produktionen vertreten?

Roland

Wir sind ja kein produzierendes Gewerbe, sondern wir beschäftigen uns mit Daten und den Erkenntnissen daraus. Das ist unsere Produktion, von daher findet diese an verschiedenen Standorten statt, insbesondere mit den IoT-Endgeräten bei unseren Kunden.

Ich glaube, ich brauche Microsoft hier nicht vorzustellen. Viele unserer Partner aus dem IoT-Use-Case-Ökosystem, aber auch viele Anwender bei uns, die arbeiten mit euren Services heute schon. Ihr seid weltweit bestens bekannt, vor allem mit euren Microsoft Azure Services und den entsprechenden Cloud Computing Services dahinter. Ich glaube, viel spannender wäre zu dir persönlich: du bist Account Executive. Was bedeutet das von der Berufsrolle her und mit welchen Kundenarten arbeitest du?

Malte

In meiner Rolle als Account Executive arbeite ich an der Forefront direkt mit Kunden zusammen. Das heißt, ich bin immer der Erstkontakt, wenn Kunden in irgendeiner Art und Weise mit Microsoft zu tun haben oder zu tun haben möchten. Gerade in der Thematik Azure gibt es viele Fragen oder mögliche Anwendungsfälle. Dort betreue ich ausschließlich Kunden im Bereich Energie. Das heißt, ich arbeite mit Kunden, die im weitestgehenden Sinne mit der Energieproduktion, der Energieverteilung oder auch Energieeinsparungen zu tun haben.

Microsoft war auch schon mal zu Gast im Podcast, ich werde die andere Folge mit verlinken. Aber heute geht es um die Use Cases aus deinem Bereich und vor allem auch um die Projekte. Kannst du mal ein paar Beispiele aus dem Energiesegment nennen, welche Use Cases ihr hier bedient und welches Projekt wir uns heute im Detail anschauen?

Malte

Gerade wenn man sich die Azure Landscape anschaut, gibt es enorm viele Möglichkeiten, wie man das anbringt. Das heißt, wir arbeiten immer aus der Perspektive des Kunden. Beispielsweise, wenn man sich Energiemanagement-Lösungen anschaut, dann geht es darum: Wie kann ich mein System mit verschiedensten Konnektoren und Schnittstellen meiner Assets so monitoren, dass ich Anomalien frühzeitig erkenne und auch durch Predictive Maintenance Eingriffe vornehmen kann?

Dann gibt es noch Anwendungsfälle, wo man in dem Bereich »Power Grids« arbeitet, also der Verteilung von Strom. Dort arbeiten wir mit unseren Kunden an der Entwicklung von Digital Twins. Das heißt, man spiegelt im Prinzip das hardwareseitige Netz, um es dann digital planen, ausbauen und monitoren zu können.

Ein weiterer Anwendungsfall ist Smart Charging. Das heißt, wenn erneuerbarer Strom hergestellt wird, dann hat er immer Fluktuation in der Produktion. Das heißt, ich kann im Gegensatz zu einem klassischen Gas- oder Kohlekraftwerk nicht immer eine konstante Last auf das Netz bringen.

Eine zunehmende Anforderung in diesem Bereich ist, dass der Verbrauch zur Produktion gematcht wird. Abhängig von der Einspeisung in das Netz findet dann ein Verbrauch statt. Das kann man unter anderem mit EV-Charging-Stationen machen; das sind alles Beispiele, wo wir mit Kunden arbeiten. Mit der Technik konkret haben wir gemeinsam daran gearbeitet, wie man CO2 einsparen kann. Das heißt, wie kann man konkret CO2-Einsparungen und CO2-Optimierungen durch Datenanalysen erreichen?

Das ist auch das, was du gerade mit Konnektoren und Assets meinst. Also ein Asset könnte zum Beispiel auch ein Techem-Gerät sein. Geht das so in die Richtung?

Malte

Genau, es geht immer darum, wie kann ich eine Hardware, die irgendwo angeschlossen ist, smart machen und vor allem vernetzen, um dann mit den Daten, die ich irgendwo herauslese, Mehrwerte zu generieren und Handlungsoptionen zu erreichen. Ich brauche erst mal eine Datentransparenz und dann kann ich bestimmte Schritte gehen.

Hast du ein, zwei Beispiele, in welchem Projekten ihr mit welchen Kunden noch so unterwegs seid?

Malte

Sehr gerne, wenn man sich Energie anschaut, kann man im Prinzip einen Weg zeichnen. Energie wird erzeugt, verteilt und dann wird sie verbraucht. Und im Prinzip kann man auch dort unsere Thematiken auf diese Unterteilungen aufsetzen.

Das heißt, wenn wir uns die Erzeugung anschauen, geht es oft darum, wie kann sie zum Verbrauch gematcht werden? Bei der Netzverteilung geht es um Themen wie: Wie kann ich Power Grids optimieren? Wie kann ich dort Anomalien frühzeitig erkennen, sodass unter der Predictive Maintenance Eingriffe vorgenommen werden können? Wie können die Downtimes in den Netzen reduziert werden?

Beim Verbrauch selbst geht es um Energiemanagement-Lösungen für Endkunden. Dass diese dann beispielsweise über Dashboards alles sehen können. Um ein konkretes Beispiel zu geben: Mit E.ON haben wir ein Projekt gemacht, wo Endkunden in ihren Smart Homes ein eigenes Dashboard bekommen haben, um dort als Nutzungskunden eine Übersicht zu erhalten über ihre Verbräuche, über die angeschlossenen Geräte, und dort dann flexibel Kosteneinsparungen realisieren zu können.

Ein Trend, den wir sehen, ist beispielsweise mit Allego. Dort haben wir Smart Charging Solutions für Elektroautos mit aufgebaut. Das heißt, das Auto ist an eine Charging Solution angeschlossen und dort, abhängig von der Einspeisung von erneuerbarem Strom, wird dann im Prinzip die Aufladung an dem Auto direkt vorgenommen. Auch hier: Wenn ich als Kunde eine gewisse zeitliche Flexibilität habe, wann mein Auto geladen werden muss, dann passt sich das direkt an der Einspeisung des Stroms in das Netz ein.

Das hat zwei Vorteile: Die Ausnutzung von erneuerbarem Strom wird erhöht; damit habe ich eine erhöhte Nachhaltigkeit. Und zweitens kann ich auch Kosten sparen, die dann wieder der Endkunde als einen Benefit für sich verbucht.

Auch diese Projekte, werde ich in den Shownotes verlinken.

Herausforderungen, Potenziale und Status quo – So sieht der Use Case in der Praxis aus [08:33]

Heute hast du Roland mitgebracht, einer eurer Kunden von der Firma Techem. Was habt ihr hier genau gemacht? Um was ging es bei eurem Projekt?

Roland

Techem ist zunächst dem ein oder anderen ein Begriff, denn wir sind unter anderem in Deutschland in jeder dritten Mietwohnung vertreten mit unserer intelligenten Messtechnik. Wir sind insgesamt in 19 Ländern unterwegs und haben draußen im Feld – wie wir es bezeichnen – über 50 Millionen Endgeräte. Wir bezeichnen uns deswegen auch gerne ab und zu als »Hidden IoT-Champion«, denn bei uns ist die Massendatenverarbeitung Tagesgeschäft, schon seit vielen Jahren.

Auch wenn man sich umschaut, ich habe hier zwei Techem Geräte. Und ich glaube, fast jeder hat eins in der Wohnung hängen.

Roland

Wir sind natürlich historisch; auch die Firma. Uns gibt es seit 70 Jahren. Aber wir haben eine massive Veränderung in der Digitalisierung. Das betrifft zum einen die Endgeräte-Technik. Wer heute auf einen Funk-Heizkostenverteiler schaut, der an seinem Radiator angeschweißt ist, der hat ein kleines digitales Display und das ist ein funkendes Gerät. Da muss niemand mehr in die Wohnung kommen, um abzulesen; das ist die Vergangenheit!

Heute sind diese Geräte digital, senden ihre Daten in voreingestellten Frequenzen, beispielsweise monatlich, damit wir aus den Wohnungen mitbekommen, welche Wärme verbraucht wurde. Damit das geordnet einerseits wieder zurückgespiegelt wird, dem Mieter und dem Vermieter, aber auch die geordnete Heizkostenabrechnung daraus erstellt werden kann.

Es sind aber auch Wasserzähler. Wie ist der Wasserverbrauch? Es sind Wärmemengenzähler. Unsere Vision und Mission ist, dass wir solche Wohngebäude green, smart und healthy machen. Und zu healthy gehören auch Aspekte wie Rauchwarnmelder, die an der Decke hängen und die sich automatisch überprüfen, dass sie auch in Ordnung sind und im Notfall wirklich gut funktionieren. Dort sind wir mit unserer Gerätetechnik präsent vertreten.

Ihr habt ein riesen Spektrum an verschiedensten Produkten. Da ist aber eure Vision von Digitalisierung, das Ganze ganzheitlich anzugehen und Daten für verschiedene Bereiche nutzbar zu machen und in Richtung neuer Services zu gehen, die sowohl für eure Kunden, aber auch intern irgendwo für Optimierungen genutzt werden.

Roland

Entscheidend ist der Mehrwert, den wir unseren Kunden bringen. Unsere Kunden sind typischerweise Vermieter und Verwalter von Wohngebäuden; ab und zu auch für industriell genutzte Gebäude. Aber im Wesentlichen geht es dort unseren Kunden darum, dass sie einerseits geordnet das, was sie an Heizkosten erzeugen, auf die Mieter zum Beispiel umlegen können, aber auch in einem Maß.

Man kann das nicht einfach mal per Quadratmeter verteilen, sondern das muss verbrauchsbezogen berechnet werden und korrekt berechnet werden. Das ist eines unserer wesentlichen Kerngeschäfte. Heutzutage, könnt ihr euch vorstellen, ist das Thema präsent: Wie kann ich Energie senken, wie kann ich weniger Gas verbrauchen?

Die sogenannte warme Miete ist ein sehr teurer Bestandteil für viele unserer Mieterinnen, Mieter und auch der Vermieter. Da versuchen wir anzupacken und zu helfen, wie das alles reduziert werden kann. Wie kann denn vermieden werden, unnötig Energie zu verbrauchen im Keller? Und das ist ein Teil unseres Lösungsspektrums.

Kannst du auf diese Herausforderungen eingehen, die ihr bei der Umsetzung eurer Visionen sowohl aus geschäftlicher als auch aus technologischer Sicht gesehen habt?

Roland

Die klassische Erfassung von Wärmeverbrauch in den Wohnungen, ich habe es eben kurz angedeutet, findet einmal monatlich statt. Das reicht auch als Messwert aus. Nur diese Daten werden übertragen und daraus kann man dann diese Umverteilung, geordnet im Laufe des Jahres, aber auch am Jahresende machen; nur die Anforderungen steigen. Es reicht nicht aus, wenn ich als Mieter nach einem Jahr eine Rechnung bekomme und weiß, wie viel ich nachzahlen muss.

In Zeiten der aktuellen Gaskrise haben viele Menschen viele Sorgen mit. Deswegen ist es sehr wichtig, auch unterjährig diese Information zu vermitteln. Wir sagen immer, Transparenz verstärkt Bewusstsein und Bewusstsein hilft zur Veränderung. Das heißt, wenn ich als Mieter schon ein Mal im Monat sehe, dass ich mehr verbrauche als die anderen, dann kann man gegensteuern und bin nicht einer hohen Rechnung ausgeliefert von der ich noch nicht mal weiß, wie hoch sie sein könnte.

Also die unterjährige Verbrauchsinformation ist enorm wichtig für Verhaltensänderung. Es wurde publiziert – wer die Presse liest: Die Menschen in Deutschland haben begonnen, ihren Energieverbrauch zu reduzieren, indem sie ein bisschen die Temperatur runtergestellt haben, das Lüftungsverhalten ändern. Jeder kann da mitmachen. Das gilt nicht nur für den Mieter, sondern auch für den Vermieter.

Das ist auch ein wahnsinnig spannender Ansatz, nicht nur für mich persönlich, sondern wahrscheinlich für jeden, der zuhört. Denn das Thema betrifft uns alle. Ich kann mir vorstellen, damit gehen viele technologische Herausforderungen einher. Welche sind das für euch?

Roland

Da muss man unterscheiden. Die Daten, die oberhalb der Kellerdecke empfangen werden – also aus den Wohnungen –, und die Daten, die wir aus dem Keller entgegennehmen, also die zum Beispiel kontinuierlich die Heizung überwachen, ob diese optimal funktioniert und eingestellt ist. Das sind unterschiedliche Frequenzen und Mengen an Daten, die da auf uns einströmen.

Wir haben dank unserer Eigenentwicklung an Technik eine super Ausgangsbasis. Einerseits die Geräte, die wir schon vor vielen Jahren in die Wohnungen gebracht haben: alle funken. Sie senden regelmäßig ihre Informationen und wir hängen zunehmend in die Flure der Häuser entsprechende Gateways, die uns diese Daten einmal im Monat weiter transportieren. Das heißt, da muss niemand mehr etwas machen.

Wir müssen heutzutage eigentlich nur noch in die Wohnungen, wenn ein Wasserzähler wegen der Eichfrist zum Austausch ansteht. Wir bekommen kontinuierlich diesen Datenstrom mithilfe der IoT-Technologie, die wir selber engineert haben. Das sind alles batteriebetriebene Geräte, die lange Laufzeiten haben. Da ist uns auch Sustainability sehr wichtig. Diese Geräte halten bis zu 20 Jahre lang mit den Batterien. Diese Daten, kontinuierlich zu uns gesendet, kommen dann bei uns auf der Cloud an. Und dort geht es weiter.

Ich kann mir vorstellen, dass ihr hohen gesetzlichen Regularien unterliegt. Kannst du ein paar Insights geben, welche Abhängigkeiten habt ihr hier und was sind Regularien vom Gesetzgeber, die noch kommen?

Roland

Zum einen gibt es Vorschriften, was muss denn überhaupt ordentlich erfasst werden? Da gibt es die sogenannte Heizkostenverordnung, wie Vermieter und Verwalter von Immobilien diese Heizkosten ihren Mietern umrechnen und umlegen dürfen. Das ist in Deutschland und auch in Nachbarländern alles sehr gut vordefiniert. Daran halten wir uns natürlich sehr streng. Wir halten uns natürlich bei allem, was wir tun, an die Datenschutzverordnungen. Beispielsweise, wir brauchen nur einen Messwert am Ende des Monats und nicht innerhalb des Monats.

Wir müssen natürlich alles beachten, was IT-Sicherheit anbelangt, mit Verschlüsselung der Werte, dass nichts abhanden kommt. Das ist uns enorm wichtig und Priorität Nummer eins, in allem, was wir tun. Es gibt auch zunehmend in Deutschland und in Europa gesetzliche Verordnungen, wie man den Energieverbrauch in Häusern optimieren kann – und was ist dazu auch wieder zu erfassen und zu zeigen?

Ich habe eben diese Kategorie Verbrauchsinformation angesprochen. Das ist eine EU-Richtlinie, die umzusetzen ist. Das heißt, überall dort, wo der Wärmeverbrauch aus der Ferne erfassbar ist, muss auch dem Mieter eine Chance gegeben werden, diesen entsprechend zu sehen, damit er unterjährig sein Verhalten anpassen kann.

Was sind denn das für Datenpakete und Datenarten, die ihr verarbeiten müsst?

Roland

Da kommt tagtäglich, kontinuierlich, aber auch in Spitzen, also zum Beispiel an einem Monatsanfang, eine gewaltige Menge an Daten zu uns. Das sind klassische IoT-Telegramme, in denen dann zum Beispiel drinsteht: Hallo, ich bin folgendes Endgerät mit meiner Seriennummer XY und habe hier einen Monats-aggregierten Wert, oder, ich habe einen aktuellen Wert. Das sind meistens Zählungen, also zum Beispiel Verbrauchseinheiten an Wärme oder Verbrauchseinheiten wie Kilowattstunden oder Kubikmeter Wasser.

Im Keller bekommen wir Temperaturen und weitere Einheiten. Das sind von uns normierte Telegramme. Wir halten uns da streng an – und haben in Europa mitgeprägt – den Open Metering Standard (=OMS), sodass die Daten in dieser Form transportiert werden. Dann kommen die bei uns an, wir entschlüsseln und speichern sie in skalierbaren Datenbanken, heutzutage sehr stark auf der Azure Cloud.

Mich würde interessieren, was technologische Anforderungen an die Lösung waren. Und warum habt ihr euch für Microsoft entschieden?

Roland

Als ich vor drei Jahren als Head of IT zur Techem gekommen bin, nach vielen Jahren davor in der IT-Beratung, ist mir klar geworden, dass wir einen massiven Anstieg vor uns haben an Variabilität und Mengen an Daten. Das hat zum einen damit zu tun, dass schlichtweg unser Geschäft wächst und dass auch die Arten und Mengen der smarten Endgeräte in den Wohnungen zunehmen. Das wäre noch einigermaßen überschaubar und abschätzbar gewesen, aber wir haben eine massive Steigerung auch an Sensorik, insbesondere wie gesagt aus dem Heizungskeller.

Es sind viele Messwerte, dort haben wir eine massive Steigerung gesehen, sowohl von Mengen als auch an Frequenzen. Das heißt, ich musste eine Lösung finden für unser Unternehmen, das nicht mehr Rechenzentrumsbasiert skaliert. Dort haben wir auch sehr starke Datenbanken und Möglichkeiten, das zu tun, da kommen wir her. Aber nun ergänzend mit modernster Cloudtechnologie, diese neuen Mengen und Variabilitäten auch im Big-Data-Sinne Herr zu werden, war das Ziel.

Wir waren, als ich zur Firma gekommen bin, war die Softwareentwicklung und unsere Betriebsteams schon sehr gut unterwegs, auch mit Microsoft Technologie. Zu Beginn des Covid-Jahres, hatten wir einen massiven Schwenk auf Microsoft 365 vorgenommen und das hat gut für uns funktioniert. Es war sehr naheliegend, dass ich auch für unser IT-Team eine Cloudstrategie Azure ausgerufen habe. Also wir fahren tatsächlich eine Single-Cloud-Strategie mit Microsoft Azure und konzentrieren uns darauf, uns dort so schnell wie möglich zu bewegen, insbesondere weil wir dort, aus meiner Sicht, sehr gute IoT-Software/Middleware vorfinden, die wir dann auch sehr schnell in die Anwendung gebracht haben.

Lösungen, Angebote und Services – Ein Blick auf die eingesetzten Technologien [20:15]

Malte, kannst du beschreiben, wer in diesem Projekt was gemacht hat und wer welche Verantwortung hatte?

Malte

Ich glaube, ein ganz wichtiger Punkt ist, dass man an so einem Projekt immer gemeinschaftlich arbeiten muss. Es ist ganz wichtig, dass man das als Team Effort versteht, als ein Projekt, wo man eng und gemeinschaftlich dran arbeitet und auch ein Stück weit die Cloud-Strategie definiert. Wenn man so was angehen will und mit vielen Datenmengen arbeitet und auch zeitnah verarbeiten möchte, dann muss man wissen, warum man das macht und wie man damit sein Geschäftsmodell aufsetzen will.

Cloud ist kein Selbstzweck, sondern ich muss wissen, warum ich das mache. Das muss man gemeinsam zu Beginn definiert haben. Dann ist die Aufteilung in dem Fall so gewesen, dass Techem sich auf seine Kernkompetenz fokussiert. Da kenne ich mich nicht so gut aus, wie Roland. Microsoft kennt sich da gar nicht so gut aus wie Techem. Das heißt, wenn wir über die Hardware sprechen, über die Geräte, dann ist das alles Metier, was weiterhin in der Hand von Techem bleibt.

Wo Microsoft dann ins Spiel kommt, ist das zur Verfügung stellen der Cloud-Infrastruktur und der verschiedenen Services, die dann auf der Cloud liegen. Was Microsoft auch macht, ist, dass wir komplett die Weiterentwicklung der Services verantworten. Das heißt, man kann im Prinzip das so aufteilen, dass sich Techem darum kümmert, was sie mit ihren Daten machen und Microsoft kümmert sich darum, was auf der Infrastrukturebene und der Serviceebene passiert.

Da kümmern wir uns darum, dass die Sicherheit gewährleistet ist in der Cloud und dass die Skalierbarkeit gewährleistet ist. Techem bekommt immer die Leistung zur Verfügung gestellt, die sie in dem Zeitpunkt benötigen. Die Weiterentwicklung der Services gehört auch dazu. Das ist ein Bereich, da muss sich Techem nicht drum kümmern. So ist das ein ganz guter Split, in dem wir zusammenarbeiten.

Wie funktioniert denn die Datenaufnahme von den einzelnen Assets und Geräten, die ihr habt?

Roland

Dort gibt es den sogenannten OMS, der einen Teil davon schon mal definiert, wie das Telegram aufgebaut ist, das heißt die Funktechnik, die wir dort engineert haben und wir haben eine eigene Research-Development-Abteilung und lassen diese Geräte dann für Techem produzieren, bringen die mit unseren Monteuren ins Feld und die nehmen dann den Funkkontakt auf.

Wir funken erstmal aus der Wohnung raus. Und wenn in der Vergangenheit jemand mit seinem Empfangsgerät dort einmal im Jahr vorbei gelaufen ist, hätte er dieses Telegramm empfangen. Inzwischen sind es aber diese Gateways, die wir engineert haben und das Telegram weiterleiten.

Wo kommen diese Telegramme hin? Wir sind dort an zwei, drei Strecken aktuell unterwegs. Schon seit einigen Jahren nutzen die Telegramme, die einmal im Monat zu uns gesendet werden, das sogenannte CoAP-Protokoll. Das ist nicht MQTT, sondern ein zweites IoT-Protokoll für batterieoptimierte Verwendung. Wir wollen aufpassen, dass diese Gateways, die wir aufhängen mit ihren Batteriepacks genauso wie die Endgeräte möglichst lange halten.

Dort landen die Daten dann erst mal in einem CoAP-Empfänger und werden dort auseinander gepackt und von dort weiterverarbeitet. Inzwischen haben wir aber zunehmend auf das MQTT-Protokoll umgestellt, auch für die netzgebundenen, sendenden Geräte. Ihr müsst euch vorstellen, wenn es um den Heizungskeller geht und dort alle 15 Minuten Daten gesendet werden über Warnstrecken, mit entsprechenden 3G-, 4G- oder 5G-Routern, dann brauche ich auch eine Stromversorgung, weil das dauernd senden soll.

Dafür sind wir massiv umgeschwenkt auf die Azure-Standards, wie man mit dem IoT-Hub und den IoT-Devices Daten entgegennimmt. Für uns ist ein wesentlicher Datenservice, in dem wir diese ganzen Telegramme speichern, der Azure Data Explorer.

Das heißt, ihr nehmt diese ganzen Datenpakete über euren OMS Funkstandard auf. Die werden an das Gateway geleitet und primär über MQTT auch verarbeitet. Nehmt ihr auch Gebäude und Infrastrukturdaten auf? Ist es ein Thema für euch auch IT-Systeme oder bestehende Daten mit zu integrieren?

Roland

Die reinen Messdaten sind nur die Bewegungsdaten. Die würden uns nicht helfen, wenn wir nicht zuordnen könnten, wo dieses Gerät genau verbaut ist und zu welcher Nutzeinheit gehört es? Deswegen ist die Verwaltung eines Digital Twins für uns enorm wichtig.

Wir haben dort seit fast 20 Jahren an Eigenentwicklungen ein Kernsystem, auf das wir auch sehr stolz sind. Dort wird erst mal erfasst, welcher Liegenschaft wir unterbreitet sind? Ihr müsst euch vorstellen, das kann ein Haus sein, das hat vielleicht mehrere Hauseingänge und mehrere Etagen. Die Frage kommt schnell: In welcher Etage, in welcher Nutzeinheit ist welches Gerät verbaut? Sogar in welchem Raum oder an welchem Radiator ist dieser Funkheizkostenverteiler?

Wir haben damit die Stammdaten und das Abbild der realen Welt. Nun kommen die Messdaten aus dem Feld kontinuierlich zu uns rein und wir können das zuordnen. Nur so können wir einen Gesamtblick werfen auf die Gesamtsumme des Verbrauchs in einer dieser Nutzeinheiten oder im gesamten Gebäude. Und diese ordentliche Daten-Pflege und Zuordenbarkeit ist enorm wichtig für uns. Dort bringen wir die Daten, sowohl im Rechenzentrum, als auf der Cloud zusammen.

Diese Datenverarbeitung in die Azure, ich nenne es jetzt mal Cloud. Wie funktioniert die? Kannst du diesen Service erklären?

Malte

Wenn wir uns Azure anschauen, dann ist das erst mal die Infrastruktur. Das heißt, es stellt sicher, dass wir in einer skalierbaren Art und Weise eine Infrastruktur darstellen und in Azure integrierbar sind dann auch Services zur Datenverarbeitung. Wenn man sich die Datenverarbeitung anschaut, da gibt es im Prinzip drei Domains: das ist Ingest, Transform, Model and Surf und all das kann innerhalb von Azure dargestellt werden; Datenerfassung, die Abfrage und dann auch die Visualisierung und Verwaltung der ausgelesene Daten.

Wenn man sich den konkreten Case, den wir gemeinsam mit Techem umgesetzt haben, anschauen, dann ist das so, dass die IoT-Daten aus den Messgeräten herausgelesen werden und die können dann mithilfe des Azure IoT Hub als Stream an den Azure Data Explorer übermittelt werden.

Was ist der Azure Data Explorer? Das ist eine vollständig verwaltete Big-Data-Analyse-Plattform. Das ist einer der Services, der auf Azure läuft und von den Kunden genutzt werden kann. Der ermöglicht das Analysieren großer Datenmengen nahezu in Echtzeit.

Immer, wenn dann das Gerät die Daten herausschickt, dann können sie sofort verarbeitet werden. Das heißt, man hat keine zeitlichen Verzögerungen oder Latenzen. Das ist gerade in diesen Use Cases enorm wichtig, um dann sofort Daten transparent in Echtzeit zu haben, um dann auch Entscheidungen oder auch Unterschiede festzustellen, auf die dann ein Kunde reagieren kann.

Roland

Ich kann das gerne noch ergänzen; der Azure Data Explorer war für mich ein schönes Beispiel auch des Zusammenspiels. Wo hat uns hier Microsoft geholfen? Als ich damals nach Lösungen gesucht habe, bin ich auf unser Microsoft Account Team zugegangen und ihr habt uns geholfen, andere Beispiele kennenzulernen. Wir macht das die Automobilbranche? Oder auch wie das denn vergleichbare Unternehmen machen. Der Azure Data Explorer ist damals erst ganz frisch als Produkt auf den Markt gekommen.

Es war vorher in der internen Nutzung unterhalb der Telemetrieerfassung, insbesondere auf Azure. Das war ein bekanntes Instrument und ist ursprünglich über den Zukauf einer israelischen Firma zu Microsoft gekommen.

Was mir gut gefallen hat, ist, dass mir da das Team Kontakte zum Produktmanagement vermittelt hat und auch zum Entwicklungsteam. Ich habe mit meinem Team sehr schnell innerhalb von zwei Monaten diesen Service ausprobieren können. Wir haben dort Daten rein gepumpt und das hat wunderbar funktioniert.

Tatsächlich bis heute läuft es kontinuierlich durch und wir müssen uns nicht drum kümmern. Ich brauche niemanden, der sich um die Infrastruktur kümmert. Es kommen kontinuierlich Innovationen raus, es ist gut dokumentiert. Wir sind mit dieser Entscheidung sehr gut gefahren, es hat immer gut für uns funktioniert und war sehr skalierbar vor allem.

Wir haben das natürlich dann weiterentwickelt. Wie können wir Modelle bilden, Machine-Learning-Verfahren, die wir dann auch von der Analytik in diese Datenbank bringen, im Big Data Sinne. Ich habe da keine Sorgen, wenn die Datenmengen explodieren würden oder die Frequenzen.

Wie genau macht ihr die Analyse an der Stelle?

Roland

Da bringe ich gerne ein Beispiel aus dem Heizungskeller. Es gibt dort Entscheidungen, die müssen einmal jährlich gefällt werden. Zum Beispiel: Sollte ich diese Anlage erneuern oder kann ich sie irgendwie optimieren. Aber es sind Entscheidungen, die müssen häufiger gefällt werden, bis hin zu täglich.

Zum Beispiel an einer Heizungsanlage haben wir typischerweise die sogenannte Heizkennlinie. Das ist das Verhältnis, wie warm man die Vorlauf-Temperatur machen soll, je nach Abhängigkeit der Außentemperatur. Was sagt mein Außentemperatur-Sensor? Wie kalt ist es in meiner Straße? Wenn diese Kennlinie falsch eingestellt ist und sich die Temperatur verändert, dann wird unnötig Wärme erzeugt, die gar nicht abgenommen wird; das ist Verschwendung. Es wird immer wieder erzeugt, obwohl diese Wärme eigentlich nicht gebraucht wird.

Das passiert, wenn vergessen wird, eine Heizungsanlage vom Winter- auf den Sommerbetrieb umzustellen. Das sind Dinge, die wir monitoren können.

Wie funktioniert das mit den Azure Services? Am Ende muss jemand diese Visualisierung vor sich haben. Wie sieht die dann aus?

Roland

Es ist eine Mischung von Menschen und vorbereiteten Maschinen, die dem Menschen dann Signale geben. In der ersten Runde, als wir diesen digitalen Heizungskeller entworfen haben, hatten wir für unsere internen Zwecke mit einem Power BI Dashboard begonnen und dort diese 15 Minuten Werte, aber auch Alarmmeldungen aufgezeigt. Inzwischen ist daraus ein komplettes Kundenportal mandantenfähig geworden, wo auch Endkunden ihre Situation mit sehen können.

Manche wollen das, manche geben uns den Auftrag, das für sie zu tun. Wir können da optisch drauf sehen, aber viel wichtiger sind die Alarmmeldungen. Wir haben kontinuierlich Algorithmen, die mit dem Eintreffen neuer Daten diese Daten bewerten. Wenn wir zum Beispiel feststellen, dass eine Warmwassertemperatur unter einen bestimmten Schwellwert sinkt und damit die Gefahr besteht, dass sich Legionellen bilden, dann können wir sofort eine Aktion einleiten und zum Beispiel, wenn wir merken, dass die Anlage so langsam ausfällt, einen Techniker hinschicken.

Für diese Algorithmen haben wir viel mit Databricks gearbeitet, auf der Azure Cloud, als Umgebung, um zu modellieren. Dann werden diese Modelle in den Azure Data Explorer gebracht und dort mit dem Embedded Python Modell ausgeführt. So haben wir stündliche Mehrwert/Insighterkennung aus den 15-Minuten-Daten und können da handeln.

Das Thema des Regulatorischen oder der Regulatorien, denen ihr unterliegt. Wie geht ihr denn seitens Microsoft damit um?

Malte

Regulatorien müssen natürlich eingehalten werden, damit ein Business Case dargestellt werden kann. Das ist alles kein Selbstzweck, sondern man muss auch einen Mehrwert schaffen. Das setzt voraus, dass wir die Regularien einhalten. Da ist es immer ganz wichtig, dass man Daten verschlüsselt. Das klingt relativ profan, aber es ist einfach so. Da arbeiten wir in den Use Cases, in dem Fall mit der Techem, aber auch sonst mit den Kunden zusammen, dass sie die volle Datenautonomie haben und die Daten so verschlüsseln, dass keiner darauf zugreifen kann.

Auch wir als Microsoft, können dann nicht darauf zugreifen. Der Kunde kann dann einen sogenannten eigenen Customer Encryption Key aufsetzen; nur er hat Zugriff. Microsoft hat nun die EU-Daten-Grenze eingeführt. Das heißt, damit stellen wir sicher, dass die Datenverarbeitung und die Nutzung aller Services auch nur auf Microsoft Servern innerhalb der EU stattfinden.

Darüber hinaus kann sogar der Kunde auswählen, in welcher Region oder in welchem Datencenter, in welchem Land er diese Daten benutzen möchte. Da geben wir den Kunden dann wirklich eine hohe Autonomie.

Roland

Ich glaube, wir sind auch zusammen auf der Azure Cloud in Amsterdam unterwegs. Für uns ist die EU-Datenverarbeitung enorm wichtig und für unsere Endkunden. Wir haben unser eigenes Rechenzentrum in Göteborg stehen. Dazwischen gibt es eine gute, schnelle Leitung. Auch wir haben kundenspezifische Verschlüsselungen eingeschaltet, auch zum Beispiel für den Azure Data Explorer, damit dort die Daten weitergehend verschlüsselt sind.

Die Möglichkeiten sind alle da. Ich denke, die Aufgabe ist es dann auch für jeden IT-Leiter sein Team zu trainieren. Wir sind in heißen Zeiten was Cyber- und IT-Security anbelangt. Ich bin stolz auf mein kleines, feines Team; da ist die Weiterbildung auf Cloud-Techniken und IT-Security sehr wichtig. Ich fühle mich sehr wohl, weil ich grundsätzlich den Eindruck habe, professionelle Datacenter von professionellen Betreibern, geben mir schon mal ein gutes Schutzlevel. Wenn ich dann noch Best Practices ran ziehe und dort bekomme ich gute Beratung, auch vom Microsoft Team, die auch andere Kunden befolgen, dann kann man sehr gute Schutzhürden aufbauen. Das ist für uns eine kontinuierliche Anstrengung.

Ergebnisse, Geschäftsmodelle und Best Practices – So wird der Erfolg gemessen [36:33]

Was ist der Business Case für euch? Kannst du den noch mal kurz zusammenfassen am Ende?

Roland

Für uns ist die Nutzung der Microsoft-Technologie für unsere Messdatenverarbeitung essenziell geworden. Es war am Anfang ein ergänzendes Instrument, ist jedoch inzwischen nicht mehr wegzudenken. Wir sind nun in der Lage, großer Datenmengen und neuer Frequenzen Herr zu werden. Wir sind nun in der Lage, für unsere Kunden noch schneller Auffälligkeiten festzustellen, zu reagieren und ihnen Mehrwertdienste anzubieten. Schlichtweg unseren heutigen Service immer schneller und zuverlässiger mit tollen Funkquoten zu liefern.

Wer auf unsere Website schaut, wird sehen, dass Dinge, die früher vielleicht Tage, Wochen gedauert haben, immer schneller funktionieren. Das schätzen unsere Kunden sehr. Ich fühle mich damit vor allem besser aufgestellt für unsere Zukunft. Ich gehe davon aus, dass diese geopolitischen Veränderungen, denen wir alle unterliegen, tatsächlich noch mal neue Verordnungen und Ideen an den Start bringen. Ich will ready sein für neue regulatorische Anforderungen, aber auch Chancen, mit High-Tech gerüstet zu sein.

Malte

Ein Punkt, den ich immer gerne heraushebe: eine relativ niedrige Eintrittsbarriere. Früher musste sich ein Kunde ein eigenes Datencenter hinstellen, er musste über Investments nachdenken. In der Cloud kann ich mit einigen wenigen Klicks in meinem Azure Dashboard eine Instanz hochfahren und erst mal ausprobieren. Ich werde erst überhaupt befähigt, als Fast Mover zu agieren. Das verhält sich alles noch im OpEx-Rahmen.

Auch wenn es mal nicht klappt, fahre ich einfach die Instanzen runter und habe eigentlich keine Kosten mehr. Das ist, man kann fast schon sagen, ein Paradigmen-Shift, was es Unternehmen ermöglicht, neue Ideen sehr schnell auszuprobieren. Man muss nicht lange in der Theorie überlegen, ob das ein Business Case ist, ob das zielführend ist. Sondern man kann einfach schnell ausprobieren und bekommt eine direkte Rückmeldung vom Markt, ob Themen funktionieren.

Das ist alles kein Selbstzweck, sondern es muss einen Business-Mehrwert bringen, und nur dann ist es auch sinnvoll, genutzt zu werden. Ich kann schnell ausprobieren – wenn es nicht klappt, höre ich auf. Wenn es gut klappt, kann die Lösung auch virtuell unlimitiert mit hochskalieren. Wenn es dann gut klappt, muss ich mich auch nicht darum kümmern und kann mit der Cloud flexibel mitwachsen.

Das ist das Schöne, wenn wir mit Kunden zusammenarbeiten, weil man wirklich spezifisch auf einen Use Case schauen und Themen einfach ausprobieren kann. Das macht gerade so viel Spaß, weil Scheitern nicht mehr teuer ist. Gerade diese Denkweise brauchen wir mehr, um auch Innovation nach vorne zu treiben.

Was für Services kommen noch? Worauf dürfen wir gespannt sein, was ihr in Zukunft noch mitbringt?

Malte

Es werden ständig neue Features von bestehenden Lösungen weiterentwickelt und dann werden auch neue Lösungen entwickelt. Zwei Themen kommen mir in den Sinn, weil sie immens wichtig sind: Zum einen der Bereich Security & Compliance. Da ist gerade die Thematik Data Governance mit Microsoft PurView ein spannendes Thema.

Das Zweite ist die Microsoft Partnerschaft mit OpenAI im Bereich Künstliche Intelligenz. Ich glaube, wenn man sich da die ersten Use Cases anschaut, ist das ein Trend, der sich noch weiter verstärken wird in den kommenden Monaten und Jahren. Ganz konkret heißt das dann wieder: Wie kann ich mit künstlicher Intelligenz, auch mit Azure Machine Learning, Daten noch cleverer auslösen? Denn häufig ist gar nicht das Problem, dass wir zu wenig Daten haben. Sondern dass wir nicht in der Lage sind, die Daten zu verstehen und mit den Daten zu arbeiten. Da kann uns künstliche Intelligenz Mehrwerte verschaffen, die ein immanentes Potenzial haben.

Was kommt da aus dem Techem-Umfeld?

Roland

Neben der Weiterentwicklung der Gerätetechnik zu weiterer Sensorik sehe ich den Ausbau der digitalen Services für unsere Endkunden, die Einfachheit unserer Mehrwerte zu konsumieren. Wir sind stolz, dass wir mit unserer Methode, wie die IoT-Daten zu uns kommen, eine gute Basis haben. Aber viel entscheidender ist, wie wir die Kernfragen unserer Kunden beantworten.

Noch ein Trend, der uns wichtig ist, den ich sowohl bei uns im Haus als auch bei Microsoft sehe: All diese Compute-Power, sei es für AI oder auch für IoT, braucht viel Energie. Da ist uns wichtig, mit Unternehmen zusammenzuarbeiten, die selber versuchen, das möglichst grün herzustellen. Das heißt, da sind wir froh, dass Microsoft dort enorme Anstrengungen unternimmt. Wir haben unter anderem eine Initiative zum Green Coding. Wir können alle mit anpacken, CO2 zu sparen, auch in dem, was wir mit Data Computing machen.

Vielen Dank für das Schlussstatement! Danke Roland für deine Zeit, Malte auch für deine. Ein richtig spannendes Projekt.

Noch eine schöne Woche! Bis Dann!

Für Rückfragen stehe ich Ihnen gern zur Verfügung.

Questions? - Ing. Madeleine Mickeleit

Ing. Madeleine Mickeleit

Host & Geschäftsführerin
IoT Use Case Podcast