
Je hoort het steeds vaker: data is de nieuwe olie. Nu de technologieën voor het winnen van data beter worden en de kosten voor dataopslag en netwerkbandbreedte omlaaggaan, beginnen data en olie in meerdere opzichten op elkaar lijken:
– Data zijn een goedkope grondstof geworden.
– Data zijn in grote hoeveelheden en in vele vormen voorhanden in kleine en grote bedrijven.
– Data zijn pas bruikbaar als ze zijn geraffineerd.
Het is juist deze raffinagestap die een knelpunt kan worden, wanneer een bedrijf zijn data probeert te benutten. Het zakelijke potentieel van data is enorm, maar voor het ontsluiten ervan is een goede dataraffinaderij onmisbaar.
Voor het inrichten van een dataraffinaderij is echter een aanzienlijke investering nodig. Er moet onder meer worden geïnvesteerd in menselijk kapitaal (datastewards en datawetenschappers) en in een efficiënte IT-infrastructuur. Zo’n dataraffinaderij kan intern in een bedrijf worden opgezet, maar dit is zeer kostbaar en voor de gemiddelde kleine of middelgrote onderneming veel te tijdrovend. Het logische alternatief is uitbesteden, maar dit is niet zo eenvoudig als het klinkt. De data-aanbieder en de dataraffinadeur moeten beide een werkwijze ontwikkelen om deze uitbesteding tot een succes te maken. In het KI-Agil-project heeft de Hanzehogeschool centrale aspecten in dit uitbestedingstraject onderzocht. Daarbij is de Hanzehogeschool opgetreden als dataraffinadeur voor een aantal bedrijven met grote bedrijfsmatige datasets die zijn gericht op het ontwikkelen van data gestuurde zakelijke proposities. Hieronder volgen aspecten die afgaand op onze bevindingen belangrijk zijn in dit proces.
Een veilige data- en werkomgeving creëren
Net als bij het raffineren van olie moeten de data in een veilige en gereguleerde omgeving worden bewerkt. Om te beginnen moeten de data worden gepresenteerd in een veilige gezamenlijke virtuele werkruimte waartoe zowel de data-aanbieder als de data-raffinadeur toegang heeft. Net als met olie kan een lek van data op de verkeerde plaats op het verkeerde moment grote en kostbare gevolgen hebben. Een dergelijke veilige omgeving wordt tegenwoordig door cloudoplossingen van een groot aantal bedrijven geboden.
Dan is er ook nog het punt van communicatie. In eerste instantie kan het een uitdaging zijn om de kloof te overbruggen tussen aan de ene kant “We kunnen alles met de data doen wat jullie willen, dus zeg maar wat jullie ermee willen” van de dataraffinadeurs en aan de andere kant “We weten nog niet wat we met de data willen, dus laat ons maar weten wat jullie ermee kunnen” van de dataleveranciers. Je hebt nog altijd met een hoop onbekende factoren te maken. Het vergt een hoop discussie en data-onderzoek om erachter te komen wat de exacte waarde is van de data en de daarmee samenhangende zakelijke propositie. Om dit proces op gang te houden is het van belang dat bedrijven niet bang zijn om hun ‘ruwe’ data te leveren. Ze moeten er niet over inzitten dat deze data nog niet volledig zijn geanalyseerd of dat ze nog onzuiverheden bevatten. Ook moet zowel de data-aanbieder als de dataraffinadeur met een gerust hart allerlei buitenissige hypothesen en bedrijfsideeën kunnen spuien, die vervolgens met de data kunnen worden getest.
Toeleveringsketens afstemmen en koppelen
Het plannen van het dataraffinageproces is een kwestie van afwegen. Het is van groot belang dat de snelheid en leveringsmethode van de dataraffinage zijn afgestemd op de snelheid en frequentie waarmee de data beschikbaar komen. Bovendien moet ook in acht worden genomen hoe urgent de beslissing is die op basis van de data wordt genomen. Voor data gestuurde strategische beslissingen van een bedrijf geldt bijvoorbeeld een tijdvenster dat wordt gemeten in maanden, zo niet jaren, waarbij de output van de dataraffinage doorgaans wordt geleverd in directieverslagen. Met andere woorden, de uitkomst is belangrijk maar niet tijdgevoelig. Aan de andere kant zijn er algoritmen voor voorspellend onderhoud die werken op sensordata in fabrieksprocessen. Dit gaat op basis van data van de ene op de andere seconde of minuut kunnen veranderen. Vervolgens produceren deze algoritmen voorspellingen over storingen in machines met de daarbij horende waarschijnlijkheidsscores. Daarom is het essentieel om in een vroeg stadium van een samenwerkingsproject vast te stellen hoe de datatoeleveringsketens worden ingericht en gekoppeld. Dit leidt er in een later stadium ook toe dat beschikbare tijd en budget kan worden toegewezen aan het verbeteren van die onderdelen in de keten waar optimalisatie de grootste impact heeft.
Het is belangrijk om in een project zo spoedig mogelijk een proof-of-principle van een agile werkende toeleveringsketen te creëren en vervolgens uit te breiden en te verbeteren. Gebleken is dat goede programmeerinterfaces van groot belang zijn voor soepel verlopende toeleveringsketens. Met name op het gebied van kunstmatige intelligentie waarbij reinforcement learning-algoritmen voortdurend worden bijgewerkt naar mate er nieuwe data beschikbaar komen. Hier is het efficiënter om de data naar de algoritmen te brengen dan andersom.
Langdurige relaties opbouwen voor co-creatie
Zoals hierboven aangegeven, zijn voor het creëren van een veilige werkomgeving en daarmee overeenstemmende veranderingen in de toelevering aanzienlijke inspanningen van beide kanten nodig. Deze investeringen betalen zich niet zozeer uit in eenmalige projecten, maar vooral in langetermijnrelaties. Een langetermijnrelatie waarin meerdere projecten samen op dezelfde of soortgelijke data worden uitgevoerd, brengt veel voordelen met zich mee. De dataraffinadeur zal steeds meer zakelijke kennis over het vakgebied van de dataleverancier verwerven. Hierdoor worden er steeds beter toegesneden algoritmen ontworpen. Anderzijds zal de dataleverancier steeds meer kennis verwerven van wat er met data-analyse en kunstmatige intelligentie wel en niet haalbaar is. Dit alles levert vruchtbare grond op waarop nieuwe ideeën tot bloei kunnen komen.
Samengevat: kleine en middelgrote ondernemingen en dataraffinadeurs moeten investeren in langdurige relaties waarin veilige en duurzame infrastructuren worden opgebouwd. Dit leidt tot mogelijkheden voor het transformeren van data tot mooie eindproducten die een blijvende impact hebben.
Auteur: Wynand Alkema