L’automazione nell’era del Data Center

Cosa significa oggi e perché è importante investire

Recentemente è stata commentata da molti la curiosa notizia di un incauto dipendente di Google alle prime armi che, durante alcune attività di formazione, ha commesso un clamoroso errore costato alla propria azienda circa 10M di dollari. Tuttavia questo è niente se si pensa al famigerato problema che ha afflitto il servizio S3 di AWS nel 2017, anch’esso causato da un errore umano e che ha fermato praticamente mezzo Internet. Danno stimato all’epoca ben oltre 150M di dollari, considerando le sole aziende del portafoglio S&P 500 che dipendevano da S3. Spostandoci poi nel contesto della IT Security, casistiche di questo tipo sono ormai all’ordine del giorno e quasi sempre riconducibili al “fattore umano”: errori di configurazione, phishing e ransomware pare siano la causa di quasi 82% delle violazioni della sicurezza di una azienda.

Ogni professionista che opera nel mondo IT si è scontrato con catastrofi varie, prevalentemente causate da errori umani che hanno fatto sudare freddo e causato notti in bianco a molti. Eventi di questo tipo infatti non sono nuovi nel settore, ma il loro potenziale impatto sta crescendo esponenzialmente con le dimensioni e le complessità delle infrastrutture presenti all’interno di ogni  Data Center e tipologia di Cloud.

Provate a fare una ricerca della parola “automation” sul portafoglio di Dell EMC, praticamente ogni soluzione tecnologica che offriamo porta degli elementi di proposizione al riguardo! Il motivo è presto detto: i meccanismi di automazione sono vitali più che mai per realizzare moderne infrastrutture IT che astraggano al massimo gli elementi di complessità sottostanti. Non solo per impegnare le proprie risorse su attività meno ripetitive e più a valore, ma anche per limitare i disastrosi effetti a catena derivanti da errori di vario tipo.

L’area tecnologica che osservo più spesso è quella vicina alle infrastrutture del  Data Center, dove ogni singolo dato viene elaborato, trasmesso e depositato da qualche parte. Alcuni anni fa si è affermato il concetto del “Software Defined Data Center” (SDDC) in cui il supporto di meccanismi di automazione è vitale. Le promesse del SDDC si stanno avverando concretamente in molte forme, ma hanno sempre alla base l’implementazione di strutture software appoggiate su “application programming interface” (API).

Perché questo è così importante? Prevalentemente per creare la necessaria astrazione delle componenti fisiche di un  Data Center, in modo che possano essere interrogate e governate da soluzioni software centralizzate. È facile intuire che, migliore è l’integrazione tra questi due mondi, maggiore è il potenziale ritorno dall’applicazione di meccanismi intelligenti che controllano le infrastrutture IT. Ed il futuro è davvero dietro l’angolo, pronto ad offrirci soluzioni con altissimi livelli di efficienza ed automazione dei processi.

Le specifica di API standard come il DMTF RedFish e lo SNIA Swordfish hanno da poco segnato una svolta tangibile che sta aprendo la strada ad un 2019 estremamente interessante per tematiche sull’automazione intelligente del Data Center (ad esempio, i Server Dell EMC PowerEdge sono stati i primi sul mercato a supportare le specifiche RedFish attraverso la propria iDRAC). Sta infatti diventando naturale usare la base di queste API per implementare elementi di orchestrazione e controllo capaci di usare le informazioni per “manipolare” il  Data Center, come se fosse un’unica entità, partendo dalle sue basi – l’hardware – fino a alle “nuvole” di vario tipo in cui galleggiano le applicazioni. Infatti, è già possibile implementare una vista univoca della propria infrastruttura, partendo delle principali soluzioni di orchestrazione sul mercato, come la VMware vRealize Suite, Red Hat Ansible o Microsoft System Center. Tutte capaci di governare in modo sufficientemente trasparente l’infrastruttura IT, grazie a molteplici plug-in e API a disposizione.

Completando il nostro sguardo al futuro, ci aspettano infine grandi progressi con l’iniezione dei meccanismi di Machine Learning (ML) applicati alle principali soluzioni di gestione ed orchestrazione: qui si avranno i maggior impatti positivi dall’eliminazione dell’errore umano come “problema di business”. I Data Center infatti sono già fonte di una enorme flusso di dati pronti per essere utilizzati in modo intelligente per l’ottimizzazione e l’analisi predittiva. L’area del cosiddetto Data Center infrastructure management (DCIM) è quella che probabilmente si è prestata prima a dimostrare le potenzialità di un diverso approccio della gestione di infrastrutture IT: trovo tutt’ora impressionante il lavoro – di oltre 6 anni fa – fatto dagli ingegneri di Google nell’uso del ML per l’efficientamento energetico dei propri Data Center. Concetti adesso pienamente abbracciati con soluzioni Enterprise da parte di società come Vertiv che hanno annunciato di aver implementato nei propri Software DCIM dei meccanismi pervasivi di “auto-tuning” guidati da motori di ML che non richiedono alcun intervento umano.

La grande promessa è quella di veder convergere tutto questo in un insieme di soluzioni in cui il concetto stesso di Data Center si astragga completamente dalle infrastrutture sottostanti. Pool di risorse applicative gestite in modo dinamico, in cui l’infrastruttura hardware venga predisposta automaticamente ed in modo sempre ottimale. In questo modo si renderanno libere le aziende – e gli esseri umani che ne fanno parte – di focalizzare finalmente le proprie energie ed investimenti: dall’imperfetto e complesso controllo manuale della propria realtà IT, verso iniziative di ricerca e sviluppo per l’innovazione, supportate da Data Center completamente autonomi. Non vedo l’ora!

Per approfondire:

About the Author: Andrea Manganaro

Manager, Systems Engineering