VMworld 2018: over data-economieën en cloud werelden

Eind augustus werd in Las Vegas VMworld 2018 gehouden. Begin november volgt in Barcelona de Europese variant. Na zo’n conferentie geven samenvattingen de meest in het oog springende ontwikkelingen weer. Een voor mij in het oog springend citaat komt van Michael Dell die in een interview het volgende zei: “At the center of this there’s a relatively simple thing that’s happening. And it starts with data. And you know, this is no different than it was in the ’60s or ’70s with the beginnings of IT. Now, the cycle is going much faster.”

Hij vervolgt: “It starts with data. With your data, you make better products and services, and when you make better products and services you attract more customers, and you get more data. It’s just now, the number of devices, number of nodes and the network connectivity, and then you insert AI and machine learning and neural networks on top of the data, and then it goes even faster. And that wheel’s just spinning faster and faster and faster and it’s not going to slow down.” Het is een steeds sneller gaande cirkel van data, applicaties, inzichten en nieuwe data.

Big en fast data
Data gedraagt zich volgens natuurwetten, alsof het massa heeft; grote sets data zijn trager dan kleine sets data. Ik heb in een blog in 2015 – over de aantrekkingskracht van data – het fenomeen dat we ‘data-gravity’ noemen al eens beschreven. Door deze natuurwet moeten we activiteiten rond big data op een centrale plaats doen, in zogenaamde data lakes, omdat we alle data eerst moeten verzamelen om er snel analytics op uit te kunnen voeren. Omgekeerd moet fast data worden gebruikt op de plaats waar het ontstaat; zodra je het gaat verplaatsen ontstaat latency en verlies je snelheid.

Deze tegenstelling zie je ook als we over cloud computing spreken: een centrale cloud is intern heel snel maar naar de eindgebruikers trager. Ik vergelijk de cloud vaak met het mainframe van het internet. Net als bij een mainframe kijk je met een terminal naar de centrale cloud waar data is en computing plaatsvindt. De browser is niet anders dan een moderne terminal. Alleen dat ‘kijken op afstand’ heeft zijn latency naar de externe data en gebruiker toe. Deze vertraging is voor de meeste menselijke communicatie geen enkel probleem; als mens zijn we immers ook best traag.

OT versus IT
Maar machines en systemen werken en reageren veel sneller dan mensen en hebben dus veel snellere communicatie nodig. Men spreekt in dat kader over Operational Technology (OT) die in micro of zelfs nanoseconden reacties verlangt. Dan heb je geen tijd om ‘even’ in een centrale cloud te informeren hoe je moet reageren op een ontvangen signaal. Dat vraagt processing on the spot. In het verleden zijn er hierdoor speciale systemen ontstaan zoals PLC’s, Scada, DCS en DNC systemen voor procesindustrie en andere snelle industriële toepassingen met eigen standaarden en (snelle) communicatie-protocollen.

We zien nu echter een decentrale uitbreiding van het centrale cloud model ontstaan, waardoor het mogelijk wordt op dezelfde wijze als in de centrale cloud daar met het cloud operations model te werken. Zo kan men dezelfde schaalbaarheid in het klein realiseren. Door snellere netwerken en de komst van 5G kunnen we ook dezelfde protocollen en standaarden gaan gebruiken. Kortom, een scala aan nieuwe standaardisatie aan de rand van de infrastructuur, het OT-domein, is mogelijk met standaard IT. We zien integratiemogelijkheden van de OT-wereld met de IT-wereld; best een revolutionaire vernieuwing.

Nieuwe hybride clouds
Aan het begin van de centrale cloud ontwikkeling spraken we al snel over hybride clouds. Door de standaardisatie van het cloud operations model maakte het niet meer uit waar data en applicatie waren om informatiediensten te creëren. Afhankelijk van de situatie waar de data, de applicaties en de processing power waren, kon een informatiedienst worden gerealiseerd. In die periode dachten we dan echter aan centrale clouds bij publieke providers, bij specifieke service providers of systemen die bij de gebruiker in huis waren.

Als we echter ook in de wereld van IoT het cloud model kunnen gebruiken, wordt het begrip hybride cloud opeens heel anders. In plaats van horizontale uitwisseling – oost/west – is nu ook verticale uitwisseling – noord/zuid –mogelijk. In een blog vorig jaar besprak ik de nieuwe computing definities die de NIST (National Institute for Standards and Technology) in dat kader heeft uitgebracht: naast centraal cloud computing is er nu ook decentraal ‘fog computing’ en zelfs ‘mist computing’ geïntroduceerd.

VMworld 2018: over data-economieën en cloud werelden

Mist en fog computing
Mist betekent in het Nederlands ‘nevel’, een laag computing waar heel veel decentrale devices met elkaar communiceren. Hierbij gaat het om fast data en dus kleine data sets. Machine communicatie waar we als mens weinig van zien of zelfs begrijpen, zoals systemen die in uw auto met elkaar communiceren om uitlaatgassen te monitoren. Of uw kamerthermostaat die continu met uw cv-ketel communiceert. ‘Fog computing’ vindt plaats op de plaats waar wij als mens acteren: tussen de laag met de fast data van machine communicatie en de centrale plaats waar met big data toepassingen analyses en deep learning plaatsvinden.

Het middengebied – de ‘core’ – is de plaats waar ook de mens-machine interface is. Daar wordt real time omgevingsdata aangeboden en er is toegang tot deep learning met daar ontwikkelde logica en algoritmes. Dat middengebied is ook de plaats waar we over machine learning spreken, bijvoorbeeld de communicatie van bestuurder met zijn zelfrijdende auto. Of een slimme app die de gebruiker leert kennen door de dagelijkse communicatie tussen zijn gebruiker, de real time wereld en door de achterliggende slimme algoritmes die zijn gebruikt om de app te ontwerpen.

Cloud infrastructuur evolutie
Terug naar VMworld in Las Vegas waar de impact van deze cloud infrastructuur evolutie zichtbaar was. VMware presenteerde zijn RDS-samenwerking met AWS, over hoe VMware met publieke clouds kan samenwerken en clouds met elkaar kan verbinden. Hoe gebruikers de afgelopen jaren van een enkele cloud naar grote multicloud omgevingen zijn gemigreerd en daar dozijnen van SaaS diensten afnemen, inclusief het gebruik van eigen private clouds in deze multicloud wereld.

Maar VMware brengt tegelijkertijd VMware Pulse virtualisatie naar IoT omgevingen en Workspace ONE naar gebruikersomgevingen aan de edge. Daar kan men met hetzelfde cloud model fast data oplossingen managen en zowel oost/west als noord/zuid netwerk-verbindingen virtueel ondersteunen met NSX netwerk virtualisatie. VMware oplossingen spreiden zich uit over de hele cloud wereld en bedienen aan de randen zowel grote cloud providers als de wereld van OT met in het midden de core systemen met de man/machine interfaces.

Standaard frameworks als CloudFoundry en EdgeX Foundry maken ontwikkelaar-vriendelijke platformen en ecosystemen mogelijk met plug-and-play software componenten. Sommigen noemen 2015 het startpunt van een nieuw economische golf: het informatie-tijdperk. De virtuele hybride cloud is daarmee de moderne middleware geworden waarmee in dit tijdperk data-economieën in die cloud gebaseerde werelden kunnen worden gebouwd en beheerd.

About the Author: Hans Timmerman

Hans Timmerman (1953) is als CTO binnen Dell EMC Nederland verantwoordelijk voor de ontwikkeling en verdieping van zowel Dell EMC's lokale business en technology development als voor de bestaande strategische allianties en partnerships. Een groot deel van zijn carrière was Hans werkzaam in de Nederlandse vliegtuigindustrie. Daarna bekleedde hij bij verschillende IT-bedrijven management- en directiefuncties.