Forventningerne til det store dataårti er langt fra indfriet

2020’erne bliver af mange betragtet som det store dataårti, hvor de mange fordele ved big data er spået en stor forløsning. Vi producerer da også data som aldrig før – men alligevel er det som om, at de voksende datamængder skaber større problemer for virksomhederne, fremfor at være et konkurrenceparameter i deres forretningsudvikling.

Sammen med analysevirksomheden Forrester Consulting satte Dell Technologies sig for at undersøge, hvordan virksomheder og organisationer arbejder med data anno 2021. Det blev til en omfattende undersøgelse og analyserapport, der er udarbejdet på baggrund af svar fra over 4.000 it-beslutningstagere fra 45 lande, herunder Danmark. Undersøgelsen viser blandt andet, at mange virksomheder kæmper med at få værdi ud af deres data – især fordi flertallet af virksomhederne enten mangler systemerne til databehandling, mangler kompetencerne eller mangler begge dele.

De mest interessante analyseresultater er følgende:

    • 70 pct. af alle adspurgte it-beslutningstagere beretter, at de indsamler data hurtigere, end de kan nå at analysere dem. Alligevel svarer 67 pct., at de konstant har brug for flere data, end deres nuværende systemer kan levere. Det er et paradoks, og det er overraskende, at det tilsyneladende er så svært at få værdi ud af data, når der i årtier er blevet udviklet og arbejdet intensivt inden for området.
    • 66 pct. af de adspurgte virksomheder har, ifølge undersøgelsen, fordoblet deres datamængder i løbet af de seneste tre år. I nogle tilfælde er der endda tale om en tredobling. De voksende datamængder tilskrives ofte virksomhedernes arbejde med digital transformation. Konsekvensen af dette arbejde er, at virksomhedernes datateams er overbelastede i deres arbejde med at sikre de nye data og datakilder samt at efterleve lovgivningen på områderne for de respektive data. Begge dele er opgaver, som ikke nødvendigvis er trivielle eller kan løses af eksisterende løsninger og processer.
    • 56 pct. af de adspurgte fortæller, at de – de seneste 1-3 år – ikke har anvendt dataindsigter i arbejdet med at opbygge en it-infrastruktur, der er gearet til fremtidens behov for dataanalyse og -bearbejdning i realtid.
    • 60 pct. oplever, at datasiloer udgør barrierer i forhold til at opsamle, analysere og agere på baggrund af dataindsigter. Her nævner 57 pct. interne systemer, der ikke kan integreres, som årsag til datasiloerne; mens 61 pct. nævner, at det er kundebehov, der skaber siloerne. Konsekvensen er i begge tilfælde, at det opfattes svært at sikre adgang til data – og endda at visualisere og dokumentere, hvilke data der er til rådighed.

Helt overordnet nævner beslutningstagerne, at de oplever datadiscipliner i en helt almindelig kontekst som barrierer i forhold til at opsamle, analysere og agere på baggrund af indsigt i data. 83 pct. beskriver følgende problemstillinger: høje omkostninger til datalagring; et data warehouse, som ikke er optimeret; forældet it-infrastruktur; teknisk gæld og manuelle processer.

Konsekvensen af ovenstående er, at kun 28 pct. af de adspurgte rent faktisk har formået at anvende dataindsigter til at udvikle nye produkter og services. Hvis vi ser på de traditionelle datadiscipliner (indsamle rådata, forarbejde data og præsentere dataindsigter), tegner der sig også et klart billede af udfordringerne: Halvdelen af beslutningstagerne svarer nemlig, at de kæmper med disse traditionelle discipliner, som har været fundamentet for at anvende data gennem de sidste 10-15 år.

Fem anbefalinger og perspektiver

I Dell Technologies kan vi sagtens nikke genkendende til de svære paradokser, som analysen blotlægger. De danske virksomheder ønsker at udnytte de mange indsamlede data i langt højere grad i takt med, at de digitaliserer og forbedrer deres it-infrastruktur. Til dem, der kæmper med at håndtere de store datamængder, kommer her fem anbefalinger, der kan give virksomhederne større værdi i deres arbejde med data.

    • Brug principperne fra DevOps: At arbejde med data er en holdsport, hvilket skal tænkes ind i processen fra start til slut. Flere virksomheder tager principperne fra DevOps til sig og implementerer de samme idéer i en DataOps-tilgang. Her skal man imidlertid passe på, at man ikke støder på de samme problemer som med DevOps: nemlig at udviklerne egentlig ikke bekymrer sig om driftsplatformen. Tilsvarende kan forretningen måske være indifferent i forhold til, hvordan data bliver indsamlet, raffineret og delt – når blot det sker her og nu, ja helst i går.
    • Arbejd henimod realtidsdata: Hastigheden for dataindsamling og -analyse er central for succes på længere sig. Vi forventer, at inden for 5-10 år vil 100 pct. af data være realtidsdata, så det er vigtigt at tænke det ind allerede nu.
    • Vælg en fremtidssikret løsning: Teknisk gæld og manuelle processer harmonerer ikke med hverken cloud eller det store dataårti. Vælg derfor altid fremtidssikrede løsninger, hvor barriererne er nedbrudt, og hvor datasiloer ikke udgør et problem.
    • Skift strategi fra public cloud-first til data-first: De seneste 5-10 år har der været meget fokus på cloud-projekter – og specielt public cloud-projekter. Men public cloud-projekter hjælper ikke nødvendigvis med at løse udfordringerne med at få værdi ud af data. Public cloud-løsninger giver potentielt blot endnu flere datasiloer og en masse ekstra opgaver med at vurdere lovgivning for klassificering af data mv. Derfor er anbefalingen, at strategien først og fremmest skal fokusere på data fremfor på public cloud. For det er alligevel data, der definerer alting: hvor må de opbevares, hvilke applikationer er relevante, hvad skal hastigheden (båndbredde og latency) være, hvordan sikres data og hvad er lovgivningen på området? Dette betyder ikke, at public cloud ikke er relevant. Med en data-first strategi vil det netop stå klart, hvilke data der passer ind i en public cloud-kontekst.
    • Vælg en løsning der understøtter både Hadoop og Datalakes: I 2021 er vi blevet mere klar på definitionen af, hvornår der er tale om en Hadoop-løsning, og hvornår der blot er tale om en Datalake. Sørg for at vælge en løsning, der kan begge dele, uden at den skaber flere siloer. Generelt vil jeg anbefale at vælge en løsning, der dækker alle landingzones, nemlig i datacenteret, i co-location datacenteret, i public cloud-løsningerne, og – specielt vigtigt for fremtiden – i Edge-miljøerne.

Der findes allerede mange løsninger på markedet i dag, men ønsket om forandring af de eksisterende tilgange og løsninger er som regel altid forbundet med forandringsledelse, uagtet hvilken teknologi der vælges. Og før vi med rette kan proklamere, at dataårtiet har indfriet de store forventninger til databearbejdning og -analyse, venter der meget arbejde forude.

Dette debatindlæg blev bragt i Tech Management den 10. januar 2022.

Om forfatteren: Poul Kjeldgaard

Poul Kjeldgaard er Field CTO hos Dell Technologies i Danmark. I sit arbejde hjælper han Dell Technologies’ kunder med at nå deres digitale mål ved hjælp af de nyeste teknologier.