Big Data Training: Stream Analytics Basics

Big Data Training: Stream Analytics Basics

Was hat Stream Analytics mit Wasserpipelines auf dem Mars zu tun?

  • Die Daten treffen in einem kontinuierlichen Strom rund um die Uhr ein.
  • Die Verarbeitung und Analyse erfolgt in Echtzeit.
  • Die Technologien sind neu.
  • Stream Analytics Pipelines sind bereits auf der Erde erfolgreich im Einsatz.
  • Die Technologien sind zukunftsorientiert und erfreuen sich wachsenden Interesses.

Data Streams sind unbegrenzt wachsende Files: Daten treffen rund um die Uhr ein und sollen Real-Time verarbeitet und analysiert werden. Stream Analytics und Stream Processing nicht mit herkömmlichen Technologien bewältigt werden. Neue Open Source Frameworks entstanden in den vergangenen Jahren und sind in vielen großen Unternehmen erfolgreich im Einsatz. Immer mehr kleinere und mittlere Unternehmen erkennen deren Potenzial zur Lösung drängender Herausforderungen.

Die Frameworks sind rasch heruntergeladen und auf einem Laptop installiert. Die APIs (Applications Programming Interfaces) sehen einfach aus, und das erste Erfolgserlebnis stellt sich bald ein. Und damit kommen viele Fragen:

  • Gibt es einen Unterschied zwischen Stream Analytics und Stream Processing?
  • Welche Tools und Frameworks zur Stream Analytics gibt es?
  • Wodurch unterscheiden sich die einzelnen Frameworks?
  • Welche Vor- und Nachteile haben sie?
  • Wie können die Tools zu einer Pipeline kombiniert werden?
  • Welche Fragen sollten in einer Evaluation der Stream Analytics Pipeline gestellt werden?
  • Wie sieht der passende PoC (Proof of Concept) für meinen Anwendungsfall aus?

Dieses Training setzt bei diesen Fragen ein.

Die Teilnehmenden lernen die Grundlagen der Stream Analytics kennen und sind nach dem Kurs in der Lage, die Evaluation der Tools und Frameworks für ihren Anwendungsfall zu planen und einen Proof of Concept zielgerichtet durchzuführen.

Architekturvariante für eine Stream Analytics Pipeline
Das Bild zeigt eine Architekturvariante für eine Stream Analytics Pipeline

 

Zielpublikum

Informatikerinnen und Informatiker, die
… sich für  in Real-Time Stream Processing und Analytics interessieren und hinter die Kulissen der APIs blicken möchten;
… die ein Grundverständnis für die Komplexität der verteilten Big-Data-Systeme aufbauen möchten;
… die anhand eines soliden Verständnisses von Konzepten in der Lage sein wollen, selbständig Details der Stream Analytics und des Stream Processings zu vertiefen.

Lernziele

Die Teilnehmenden …
… können erläutern, warum für das ausfallfreie Verarbeiten großer Datenbeständen verteilte Systeme eingesetzt werden;
… kennen die Trade-Offs, die verteilte Systeme für die Stream Analytics mit sich bringen;
… kennen die wichtigsten Commit-Protokolle in verteilten Systemen und die Beschränkungen, die sich daraus ergeben;
… kennen die markantesten Architekturen verteilter Systeme; 
… können die wichtigsten Open-Source-Frameworks für Stream Processing und Stream Analytics benennen und in Kategorien einteilen;
… kennen Herangehensweisen, wie einzelne Frameworks zu einer produktiven Stream Analytics Pipeline kombiniert werden;
… haben Hands-On-Erfahrungen mit den APIs von Apache Kafka und Apache Spark und kennen die Herausforderungen bei der Implementierung der Exactly-Once-Semantik;
… kennen Windows und Watermarks als wichtige Konzepte bei der Real-Time Analytics;
… können das Vorgehen zur Evaluation einer Pipeline für Ihren spezifischen Use-Case planen und kennen die wichtigsten Fragen, die ihr PoC klären sollte.

Notwendige Vorkenntnisse

  • Erfahrene Informatikerinnen und Informatiker, insbesondere Programmiererinnen und Programmierer, Systemverantwortliche, Enterprise Architektinnen und Architekten.
  • Grundkenntnisse Linux sind von Vorteil.
  • Hands-On Übungen werden mit den Python-APIs durchgeführt.

Notwendige Vorkenntnisse

  • Erfahrene Informatikerinnen und Informatiker, insbesondere Programmiererinnen und Programmierer, Systemverantwortliche, Enterprise Architektinnen und Architekten.
  • Grundkenntnisse Linux sind von Vorteil.
  • Hands-On Übungen werden mit den Python-APIs durchgeführt.

Dozentin

 

Ursula Deriu führt an verschiedenen Fachhochschulen Vorlesungen zu den Themenkreisen Data Management, Big Data und Data Science durch. Sie ist Autorin des Buchs Stream Analytics Pipelines.

Sprache

  • Deutsch
  • Englisch auf Anfrage 
  • Unterlage in deutscher Sprache

Form und Dauer

  • Online Training auf einer geschlossenen Cloud-Plattform.
  • In-House-Training auf Anfrage.
  • Das Training dauert zwei Tage

Buchung und Daten

Für weitere Auskunft und Daten  bitte das Formular ausfüllen.

Buchung und Daten

Für weitere Auskunft und Daten  bitte das Formular ausfüllen.

Download Fact-Sheet als pdf.

Mit dem Abschicken des Formulars akzeptieren Sie die Datenschutzerklärung.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.