Blog

Der Zuschuss beträgt 900.000 € und das Projekt hat eine Laufzeit von zwei Jahren. Ermöglicht wird das Projekt durch die Hochschule Osnabrück Lingen, Institut für Duale Studiengange und die Hochschule Hanze Groningen, Institut für Ingenieurwesen, HBO-IKT und Bioinformatik.

Daten sind das neue Öl! Aber wer veredelt die Daten?

Man hört es immer öfter: Daten sind das neue Öl. In dem Maße, wie sich die Technologien zur Datenextraktion verbessern und die Kosten für Datenspeicherung und Netzwerkbandbreite sinken, beginnen Daten und Öl in mehr als einer Hinsicht gleich auszusehen:

– Daten sind eine billige Ware geworden.

– Daten sind in großen Mengen und in vielen Formen in kleinen und großen Unternehmen vorhanden.

– Die Daten sind erst nach ihrer Veredelung brauchbar.

Gerade dieser Veredelungsschritt kann zum Engpass werden, wenn ein Unternehmen versucht, seine Daten zu verwerten. Das Geschäftspotenzial von Daten ist enorm, aber um es zu erschließen, ist eine gute Datenraffinerie unerlässlich.

Die Einrichtung einer Datenraffinerie erfordert jedoch eine erhebliche Investition. Dies erfordert u. a. Investitionen in Humankapital (Datenverwalter und Datenwissenschaftler) und in eine effiziente IT-Infrastruktur. Eine solche Datenraffinerie kann unternehmensintern eingerichtet werden, doch ist dies für ein durchschnittliches KMU sehr kostspielig und viel zu zeitaufwändig. Die logische Alternative ist Outsourcing, aber das ist nicht so einfach, wie es klingt. Sowohl der Datenlieferant als auch der Datenveredler müssen eine Arbeitsmethode entwickeln, damit dieses Outsourcing ein Erfolg wird. Die Hanze University of Applied Sciences hat im Projekt KI-Agil zentrale Aspekte dieses Outsourcing-Prozesses untersucht. Dabei hat die Hanze University als Datenaffinitätspartner für eine Reihe von Unternehmen mit großen Unternehmensdatenbeständen fungiert, die datengesteuerte Geschäftsvorschläge entwickeln wollen. Nachfolgend sind Aspekte aufgeführt, die nach unseren Erkenntnissen in diesem Prozess wichtig sind.

Schaffung einer sicheren Daten- und Arbeitsumgebung

Wie bei der Raffination von Öl müssen die Daten in einer sicheren und regulierten Umgebung verarbeitet werden. Zunächst müssen die Daten in einem sicheren gemeinsamen virtuellen Arbeitsbereich präsentiert werden, zu dem sowohl der Datenlieferant als auch der Datenveredler Zugang haben. Wie bei Öl kann ein Datenleck am falschen Ort zur falschen Zeit große und kostspielige Folgen haben. Eine solche sichere Umgebung bieten heute viele Unternehmen mit ihren Cloud-Lösungen.

Dann ist da noch die Frage der Kommunikation. Anfangs kann es eine Herausforderung sein, die Kluft zu überbrücken zwischen „Wir können mit den Daten alles machen, was ihr wollt, also sagt uns, was ihr damit machen wollt“ von den Datenveredlern und „Wir wissen noch nicht, was wir mit den Daten wollen, also sagt uns, was ihr damit machen könnt“ von den Datenlieferanten. Sie haben es noch mit vielen unbekannten Faktoren zu tun. Es bedarf vieler Diskussionen und Datenrecherchen, um den genauen Wert der Daten und den damit verbundenen Geschäftsvorteil herauszufinden. Um diesen Prozess in Gang zu halten, ist es wichtig, dass die Unternehmen sich nicht scheuen, ihre „Rohdaten“ zur Verfügung zu stellen. Sie sollten sich keine Sorgen machen, dass diese Daten noch nicht vollständig analysiert wurden oder dass sie noch Verunreinigungen enthalten. Außerdem sollten sowohl der Datenlieferant als auch der Datenveredler in der Lage sein, selbstbewusst alle möglichen haarsträubenden Hypothesen und Geschäftsideen zu äußern, die dann anhand der Daten getestet werden können.

Angleichung und Verbindung der Lieferketten

Die Planung des Datenveredelungsprozesses ist eine Frage der Ausgewogenheit. Es ist sehr wichtig, dass die Geschwindigkeit und die Liefermethode der Datenveredelung mit der Geschwindigkeit und Häufigkeit, mit der die Daten verfügbar werden, übereinstimmen. Darüber hinaus muss auch die Dringlichkeit der auf den Daten basierenden Entscheidung berücksichtigt werden. Die datengesteuerten strategischen Entscheidungen eines Unternehmens haben beispielsweise ein Zeitfenster, das in Monaten, wenn nicht sogar Jahren gemessen wird, wobei das Ergebnis der Datenveredelung in der Regel in Berichten für die Geschäftsleitung geliefert wird. Mit anderen Worten: Das Ergebnis ist wichtig, aber nicht zeitkritisch. Andererseits gibt es Algorithmen für die vorausschauende Wartung, die mit Sensordaten in Fabrikprozessen arbeiten. Dies basiert auf Daten, die sich von einer Sekunde oder Minute zur nächsten ändern können. Diese Algorithmen erstellen dann Vorhersagen über Maschinenausfälle mit entsprechenden Wahrscheinlichkeitswerten. Daher muss bereits in einem frühen Stadium eines Kooperationsprojekts festgelegt werden, wie die Datenlieferketten aufgebaut und verknüpft werden sollen. In einem späteren Stadium führt dies auch dazu, dass die verfügbare Zeit und das Budget für die Verbesserung derjenigen Teile der Kette eingesetzt werden können, in denen die Optimierung die größte Wirkung hat.

Es ist wichtig, so früh wie möglich in einem Projekt einen Proof-of-Principle für eine agile Lieferkette zu schaffen und diese dann zu erweitern und zu verbessern. Es hat sich gezeigt, dass gute Programmierschnittstellen für reibungslos funktionierende Lieferketten sehr wichtig sind. Vor allem im Bereich der künstlichen Intelligenz, wo die Algorithmen des Reinforcement Learning ständig aktualisiert werden, wenn neue Daten zur Verfügung stehen. In diesem Fall ist es effizienter, die Daten zu den Algorithmen zu bringen als andersherum.

Aufbau langfristiger Beziehungen zur gemeinsamen Gestaltung

Wie bereits erwähnt, erfordern die Schaffung eines sicheren Arbeitsumfelds und die entsprechenden Veränderungen in der Lieferkette erhebliche Anstrengungen von beiden Seiten. Diese Investitionen zahlen sich nicht so sehr in einmaligen Projekten aus, sondern vielmehr in langfristigen Beziehungen. Eine langfristige Beziehung, bei der mehrere Projekte gemeinsam an denselben oder ähnlichen Daten durchgeführt werden, bringt viele Vorteile. Der Datenveredler erwirbt mehr und mehr Geschäftswissen über das Fachgebiet des Datenlieferanten. Infolgedessen werden mehr und mehr maßgeschneiderte Algorithmen entwickelt werden. Andererseits wird der Datenlieferant immer mehr Wissen darüber erwerben, was mit Datenanalyse und künstlicher Intelligenz machbar ist und was nicht. All dies bietet einen fruchtbaren Boden für die Entwicklung neuer Ideen.

Zusammenfassend lässt sich sagen, dass KMU und Datenveredler in langfristige Beziehungen investieren müssen, in denen sichere und nachhaltige Infrastrukturen aufgebaut werden. Daraus ergeben sich Möglichkeiten, Daten in schöne Endprodukte zu verwandeln, die eine nachhaltige Wirkung haben.

by
Michele Peiffert
8 Februar 2022