Folge 71 auf einen Blick (und Klick):
- [06:38] Herausforderungen, Potenziale und Status quo – So sieht der Use Case in der Praxis aus
- [20:33] Lösungen, Angebote und Services – Ein Blick auf die eingesetzten Technologien
- [33:56] Ergebnisse, Geschäftsmodelle und Best Practices – So wird der Erfolg gemessen
Zusammenfassung der Podcastfolge
Unternehmen zögern bei dem Austausch von Daten innerhalb einer Lieferkette oder mit gewerblichen Kunden, da Rechte und Pflichten aufwendig zu klären sind. Wie kann der Datenaustausch zwischen den Unternehmen am besten funktionieren? Was sind die Anforderungen und worauf ist zu achten?
Boris Scharinger, Senior Innovation Manager bei der Siemens Digital Industries, beschäftigt sich genau mit diesen Fragen und wie das herstellerübergreifende Zusammenarbeiten möglich und standardisiert werden kann. Dabei beleuchtet er sowohl rechtliche als auch organisatorische Sichtweisen und präsentiert Lösungsansätze, da viele Unternehmen – vor allem bei übergreifenden Datenpools in KI-Projekten – Verlust von Geschäftsgeheimnissen befürchten. Darüber hinaus zeigt er auf, wie der Anbahnungsprozess von IoT-Projekten beschleunigt und vereinfacht werden sollte.
CEO der MindSphere World e.V., Ulf Könekamp, hat zum Ziel, die Zukunft des IIoT mitzugestalten. Dies realisiert er mit Experten aus unterschiedlichsten Branchen. Mithilfe verschiedenster Arbeitsgruppen können komplementär weiterführende Leistungsverbesserungen erreicht werden. Wo die Grenzen eines einzelnen Unternehmens erreicht sind, kann durch Kollaboration mit anderen Firmen ein weiteres Vorankommen möglich werden.
Wie ein multilaterale Verhältnis der Unternehmen rechtlich geregelt werden und wie der Ecosystem Manager Abhilfe für mögliche Konsequenzen schaffen kann, erfahren wir in der 70. Folge des IoT Use Case Podcasts.
Podcast Interview
Boris, du bist Senior Innovation Manager bei der Siemens Digital Industries. Siemens ist der Technologie- und Innovationsführer für die industrielle Automatisierung und Digitalisierung. Du beschäftigst dich aktuell mit dem wohl wichtigstem Thema, wenn es um den Datenaustausch aus rechtlicher und organisatorischer Sicht geht, um herstellerübergreifendes Zusammenarbeiten möglich zu machen. Hast du zum Beginn aktuelle Beispiele, die die Relevanz des Themas Datenaustausch aus rechtlicher und organisatorischer Sicht verdeutlichen?
Boris
Ja, klar. Es gibt viele rechtliche und organisatorische Themen zu klären. Das Thema »Was ist ein Geschäftsgeheimnis?« fällt mir dazu ein. Das ist gar nicht so trivial zu beantworten. Ich möchte ein kleines Beispiel nennen. Wir erinnern uns sicherlich alle daran, wie Tesla die Model-3-Produktion hochgefahren hat. Und die Frage, wie hoch der Produktionsoutput wird von dem neuen Model 3, war etwas, das auf täglicher Ebene den Börsenkurs beeinflusst hat. Wenn ich mir nur vorstelle, ich habe eine Zentrale Maschine in der Produktion von Tesla, dann ist allein das Datum »Timestamps« sehr sensibel, während das in einer ganz anderen Konstellation bei einer anderen Firma unbedeutend ist von der Geschäftsgeheimnis-Perspektive her. Genau um solche und weitere Fragen geht es bei unserer Arbeit.
Herausforderungen, Potenziale und Status quo – So sieht der Use Case in der Praxis aus [06:38]
Boris, du bist einer der Leiter der Gruppe Shared Data Pool. Herstellerübergreifendes Zusammenarbeiten, wo findet das heute statt und wann brauche ich solche Datenpools mit mehreren Leuten?
Boris
Wir würden uns gerne wünschen, dass es noch mehr stattfindet als heute. Viele der heutigen IoT-Projekte laufen bilateral ab – zwischen jemandem, der Daten bereitstellt, und jemandem, der dann zum Beispiel mit den Daten ein Modell baut. Überall da, wo wir Lösungen entwickelt sehen wollen, die skalieren, die über ein Projekt hinausskalieren, die das Potenzial haben, zu einem Produkt zu werden, sind diese übergreifenden Datenpools sehr wertvoll.
Vielleicht trainiert man ein neuronales Netz für eine Quality Inspection, für eine automatisierte Qualitätsinspektion bei einem Kunden in einem spezifischen Umfeld. Ich werde große Schwierigkeiten haben, dieses neuronale Netz beim zweiten Kunden zum Fliegen zu bringen; das wird dann einen sehr hohen weiteren Projektaufwand erfordern. Wenn ich jetzt allerdings das neuronale Netz mit Daten trainiert habe von fünf oder sechs unterschiedlichen Kunden, vielleicht sogar mit Daten aus mehreren Werken pro Kunde, dann kann ich sehr zuversichtlich sein, dass die Lösung, die dort entstanden ist, auch bei dem Kunden sieben und acht funktioniert.
Anders formuliert: Dass sie kommerziell skaliert. Das ist heute die große Herausforderung in der Entwicklung von Vorhersagemodellen, Predictive Models. Dass wir es schaffen müssen, aus dem verdammten Projektmodus herauszukommen, Lösungen und Produkte zu schaffen, die skalieren. Das ist schwierig, weil heute viele Parteien – Maschinenbauer zum Beispiel – auf ihren Daten sitzen und aus einem Bauchgefühl heraus sagen, nein, ich möchte eigentlich jetzt nicht meine Daten mit anderen Firmen zusammen in einen größeren Datenpool legen.
Lösungen, Angebote und Services – Ein Blick auf die eingesetzten Technologien [20:33]
Ihr habt innerhalb der MindSphere-World-Arbeitsgruppe das Ganze umgesetzt und arbeitet gemeinsam an einem IoT-Template-Generator, um diese Zusammenarbeit datenübergreifend zu ermöglichen. Wie funktioniert das genau, was ihr da entwickelt habt?
Boris
Wir haben da den sogenannten MindSphere-World-Ecosystem-Manager geschaffen. Das ist eine Plattform, in der ich Use Cases bekanntgeben und mir auch im Marktplatz vorhandene Use Cases anschauen kann, sodass ich dann entscheiden kann: Möchte ich mich bewerben, da mitzumachen, bei einem dieser Use Cases, indem ich beispielsweise eine Fähigkeit einbringe? In der Tat, neben diesem Marktplatz gibt es in dem Moment, in dem ein Projekt … ich nenne es jetzt mal »fertig konfiguriert« ist … die Beteiligten stehen fest; man ist sich strukturell handelseinig geworden; es gab eine Diskussion, wie man mit IP umgeht, und ist zu einer Einigung gekommen. Dann kann ich das konfigurieren. Ich habe für alle diese Themen Konfigurationsmöglichkeiten in meinem Projekt-Setup und drücke auf den Knopf. Dann wird aus dem Projekt-Setup über das gesamte Projekt und alle Beteiligten ein Rahmenvertrag generiert; teilweise auch spezifische Verträge für Einzelleistungspakete.
Es gibt zum Beispiel den vertrauenswürdigen Datenverarbeiter, den Trusted Data Processor. Mit dem wird ein Data Processing Agreement abgeschlossen; zwischen den Beteiligten und dieser Partei. Da steht genau drin, wie werden die Data Pipelines organisatorisch aufgesetzt und welche rechtlichen Pflichten und Verpflichtungen hat der Trusted Data Processor zu erfüllen? Wenn wir sagen, als Beispiel, in dem Projekt haben sich alle Beteiligten darauf geeinigt, dass es eine Audit-Möglichkeit gibt. Diese Audit-Möglichkeit sorgt dafür, dass ein unabhängiger externer Auditor überprüft, ob die technische Umsetzung des Shared Data Pools auch wirklich den vertraglichen Vereinbarungen entspricht. Dann muss der Data Processor Audit-Klauseln in seinem Dienstleistungsvertrag drin stehen haben. Diese sagen, mit soundso vielen Tagen Vorlauf können wir einen Audit ankündigen, und dann musst du eine externe Partei das ganze Thema anschauen lassen.
Das ist ein Thema, wo wir einen Haken dran machen; okay, wir brauchen den Auditor und die Audit-Möglichkeit, und dann werden da zusätzliche Passagen in die Verträge und Vertrags-Templates hineingegeben.
Ergebnisse, Geschäftsmodelle und Best Practices – So wird der Erfolg gemessen [30:56]
Ulf, du hast gesagt, ihr habt ganz unterschiedliche Firmen bei euch, bei denen es darum geht, diese Kompetenzen zusammenzubringen. Kannst du zusammenfassen, warum es für viele eurer Mitgliedern ein wichtiges Thema ist?
Ulf
Ganz viele Unternehmen haben mittlerweile erkannt, dass sie die richtige Innovation oder Effizienzsteigerung nicht mehr alleine hinkriegen. Sondern dass sie das mit anderen zusammen tun müssen. Dass sie eben die komplementären Kompetenzen von anderen nutzen und damit Ökosysteme schaffen, um Dinge anbieten zu können, die keiner alleine anbieten könnte. Es ist immer dieses Zusammenspiel mehrerer. Das ist ein echter Mindset Change, wo Firmen nicht denken, ich kann das alleine oder bilateral, sondern in einer größeren Gruppe zusammenarbeiten. Dazu gehören zum Beispiel auch Cross Supplier Solutions. Die bieten ein enormes Potenzial, weil die Firmen nicht nur einfach eine Spezifikation erfüllen, sondern gemeinsam weiterdenken und damit mehr erreichen können.
Diese ganzen neuen Technologien, die wir sehen – sei es Edge oder sei es Cloud –, werden dann besonders wertvoll, wenn Daten geteilt und in einen neuen Kontext gestellt werden. Also Daten an eine andere Firma oder die Wetterdaten dazu und so weiter. Dann ergeben sich ganz neue Möglichkeiten und auch Erkenntnisse, aus denen man wieder einen Nutzen ziehen kann.
Viele Unternehmen befürchten durch diesen Datenaustausch und durch diese teilweise Offenlegung ihrer Daten, Betriebsgeheimnisse zu verlieren und rechtliche Probleme. Dazu gehört natürlich auch, Compliance zu bekommen. Spätestens an dieser Stelle kommt der Ecosystem Manager ins Spiel. Spezifisch auf Datenverwendung zugeschnittene Vertrags-Templates schützen dann die Unternehmen und ermöglichen ihnen zudem den Einstieg in datenbasierte Geschäftsmodelle, was sonst nicht so einfach wäre.