Typische Open-Source Tools einer Real-Time Data Pipeline
Werde Teil der E-Mail-Community Data Engineering und Analytics und hole dafür das E-Booklet für 0 €
Wer in die Big-Data Welt einsteigen will, sieht sich konfrontiert mit einer schier unübersichtlichen Fülle an Tools, Frameworks, Architektur-Patterns und Datenformaten.
Die gute Nachricht ist: viele dieser Tools wurden von den Internet-Riesen und anderen großen Organisationen hergestellt und Open Source gestellt. Weltweite Communities von ausgewiesenen Spezialisten entwickeln die Tools weiter. Eine Super-Möglichkeit also, schnell einen guten Überblick über diese horizontal skalierenden Tools zu erlangen.
In diesem E-Booklet zeige ich dir die typische Architektur einer Daten-Pipeline zur Echtzeit-Verarbeitung und Analyse großer Datenströme. Für jeden Architektur-Layer habe ich eine Reihe von typischen und beliebten Open-Source-Tools zusammengestellt.
Eine solche Zusammenstellung hätte mir sehr geholfen, als ich 2010 anfing, mich mit der damals noch sehr jungen Big-Data-Welt zu befassen.
Damit sparst du tagelanges Recherchieren und kannst zielgerichtet dein erstes Big-Data-Projekt in Angriff nehmen.
Ich wünsche dir viel Spaß und Erfolg auf deinem Weg in die Welt des verteilten Rechnens.
Ursula Deriu
Seit mehr als 20 Jahren unterrichte ich Data Management und Data Engineering an mehreren Schweizer Fachhochschulen.
Big-Data Technologien bilden einen faszinierenden Themenkreis, der sich an wachsendem Interesse erfreut und den ich auf diesem Weg einem breiteren Fachpublikum erschließen möchte.