Machine Learning im Einsatz: Der Eventrückblick

The unbelievable Machine Company und Dell EMC luden am 29.1. ins Hotel Triest in Wien ein, um das Thema „Machine Learning im Einsatz“ näher zu beleuchten. Drei spannende Vorträge rückten jeweils unterschiedliche Aspekte der Thematik in den Vordergrund. Hier die Highlights und Downloads.

Um 15:30 trudelten die ersten Besucher des Workshops im Hotel Triest in Wien ein: Data Scientists, KI-Interessierte und Themenfremde, die die Einsatzmöglichkeiten und Chancen des Machine Learning näher kennenlernen und verstehen wollten. Nach einer kurzen Networking Session bei Kaffee ging es auch schon mit den Vorträgen los.

Zum Einstieg wurden die Basics geklärt: Matthias Heise, Data Architect bei *um, startete seinen Vortrag „Machine Learning für Einsteiger. Wieso ist Data Science so kompliziert?“ mit einer Frage: Wie erkläre ich jemandem, der mit dem Thema grundsätzlich nicht in Berührung kommt, was ein Algorithmus ist und wie er funktioniert?  Die Antwort darauf lieferte er in der Form eines bildhaften Beispiels; Im Märchen Aschenputtel lässt sich eine einfache Erklärung für das „Mysterium“ Algorithmus finden. Die Tauben sind der Algorithmus, die Erbsen die Daten und die zwei Behälter sind die Labels „good and bad“ in die der Algorithmus die Daten kategorisiert.
Bevor ein Algorithmus zu arbeiten beginnen kann, muss jedoch der Mensch tätig werden und Data Preprocessing betreiben. Die Daten müssen so aufbereitet werden, dass der Algorithmus sie auch mathematisch verarbeiten kann – das nimmt Zeit in Anspruch und ist kompliziert, da es kein linearer Prozess ist. Oftmals geht man zwei Schritte nach vorn, nur um dann genau diese zwei Schritte wieder zurück zu gehen. Probieren, Testen und Aufbereiten, Learnings aus dem Prozess ziehen und diese dann in der Entwicklung wieder anwenden – das macht Data Science so diffizil. Auch die Gewichtung der Daten ist ein wichtiger Schritt, den Menschen übernehmen müssen, was ebenfalls lange dauern kann.
Im Endeffekt kann man zusammenfassend sagen, dass Data Science ein Prozess ist, der zum Großteil von Menschen ausgeführt wird und bei dem Experten mit nicht lesbaren Daten arbeiten, die sie erst in eine, für den Algorithmus verständliche, Form bringen müssen.
Für viele Unternehmen sind diese Schritte in-house einfach nicht umsetzbar, darum gibt es am Markt schon vorgefertigte Lösungen. Genau da setzte der nächste Vortragende fort: Welche Lösungen gibt es und warum sollte ich Machine Learning überhaupt am Schirm haben.

Alexander Graf, Advisory Systems Engineer bei Dell EMC – Unstructured Data and Analytics, schloss direkt mit seinem Vortrag „Unlock your Data Capital. DellEMC-Lösungen als Basis für Ihren Informationsvorsprung“ fort. Bis 2021 werden 50% aller Umsätze aus digitalen Prozessen stammen, das ist eine Erkenntnis, zu der Unternehmen besser heute als morgen kommen sollten. Machine Learning ist ein wichtiger Treiber für Digitale Transformation und eigentlich schon in allen Branchen präsent: von Automotive, im Zuge von z.B. automatisierten Fahrerassistenzen, über Retail im Bereich Customer Experience, bis hin zu der Finanzbranche für Automated Trading. Machine Learning hilft neue Umsatzströme zu entdecken und bestehende zu optimieren, deshalb besser früher als später auf den Zug aufspringen.
In der Vergangenheit war Data Learning so organisiert, dass Unternehmen mit beweglichen Daten arbeiteten, die zu ihrer Compute Power gebracht wurden; heute haben wir es aber mit immer mehr, unstrukturierten und vor allem unbeweglichen Daten zu tun, zu denen die Compute Power gebracht werden muss – das heißt man muss sich eine skalierbare Infrastruktur aufbauen, die sofort verfügbar ist und wenig administratives Zutun benötigt. Die Lösung: Dell EMCs Isilon Scale-Out NAS. Neben den vorhin schon genannten Vorteilen sind die benötigten Daten über Isilon auch sofort verfügbar, analysierbar und immer aktuell. Und wenn auch die Dell EMC Ready Solutions im Einsatz sind, liefert die Lösung in Punkto KI, Machine Learning und Deep Learning alles, was ein Unternehmen braucht, um neue Geschäftsfelder zu erschließen.

Den Abschluss machte Michael Hitzigner, Team Lead Operations bei *um mit dem Vortrag „Von Data Science zu Data Operations – wie werden datengetriebene Projekte erfolgreich ausgerollt? Skalierbar, hochperformant und sicher.“. Michael Hitzinger umriss, wie ein Data Science Projekt von Anfang bis zum Ende auf die Beine gestellt wird.
In einem ersten Schritt werden mit dem Data Leadership Process Modell die Use Cases für Machine Learning definiert.
1. Strategie: Was für Prozesse und Strukturen müssen in meinem Unternehmen vorherrschen, um derartige Projekte überhaupt umsetzen zu können. 2. Die Lab Phase, die sich wiederum in zwei Phasen unterteilen lässt. Eine Consulting Phase, in der die Use Cases definiert werden und deren Realisierbarkeit diskutiert wird. Eine Implementation Phase, in der Prototyping betrieben wird und die Anforderungen an die Plattform definiert werden.
Sobald die Use Cases und sicherheits- und compliance-relevante Ansprüche definiert wurden, geht es an den Aufbau der Plattform. Auch dieser lässt sich in drei Levels unterteilen: Emerging, Corporate und Mature. In dem Emerging Level wird die ungefähr benötigte Compute Power festgelegt und die Art der Daten definiert. Anschließend folgt die Ingestion der Daten, bei der (unter anderem) eine Data Storage Strategie entwickelt wird. Darauf folgen die Strukturierung der Daten und anschließend kommt es zum Rollout der Plattform. Die Emerging Phase ist kurz und dynamisch, hier wird noch viel probiert, damit es beim 2. Level – dem Corporate Level – zu so wenig ungeplanten Zwischenfällen wie möglich kommt. Das Corporate Level zeichnet sich durch seinen Schwerpunkt auf Regulatorien, Governance, Security und Compliance aus. Hier werden sicherheitsrelevante Ansprüche an die Plattform definiert und diese wird aufgebaut. Schlussendlich gelangt man zum Mature Level; die Plattform steht und die bestehenden Workflows werden automatisiert, wenn der Use Case das erfordert, Streaming wird ermöglicht, sollten Echtzeit Daten benötigt werden und die Modelle verfeinert. Zu guter Letzt kommt es zum Fine Tuning, bei dem häufig der ganze Kreislauf wieder von vorne aufgerollt wird, da sich zum Beispiel aufgrund der zunehmenden Zahl der Use Cases die Ansprüche an die Plattform verändern. Auch beim Machine Learning gilt: kritisches Hinterfragen und Optimieren sind der Schlüssel zum Erfolg, weil nur weil wir etwas immer so machen, heißt das nicht, dass wir es richtig machen.

Nach den Vorträgen ließen die Gäste den Abend bei einer Q&A und Networking Session ausklingen, die von dem Küchenchef des Hotel Triest mit kulinarischen Schmankerln begleitet wurde.

Hier finden Sie die Fotos zum Event 

Wenn Sie diese Veranstaltung verpasst haben und in Zukunft Up-to-Date bleiben wollen, folgen Sie Dell EMC auf LinkedIn, Twitter oder hier am Blog.

About the Author: Dell Technologies