Big Data Labor: Voraussetzungen schaffen mit einem Virtual Machine Cluster

In einer Artikel Serie werden die Voraussetzungen geschaffen für einen Big-Data-Kurs mit vielen Hands-On-Übungen.

Big Data Technologien erobern hartnäckig die IT-Welt. Gleichzeitig entwickeln sich rasend schnell und gewinnen an Maturität. Wer sich mit Big-Data-Technologien befassen will, merkt rasch, dass dazu eine geeignete Test-und Übungsumgebung notwendig ist.

In einer ersten Artikel-Serie stelle ich verschiedene Möglichkeiten vor, wie man kostengünstig eine solche Umgebung aufbaut.

Die erste Serie habe ich fertiggestellt und beginne heute mit der Veröffentlichung. Es ist eine Schritt-für-Schritt-Anleitung, die zeigt, wie man virtuelle Maschinen aufsetzt und zu einem Cluster vernetzt.

In einer zweiten Serie werde ich zeigen, wie man einen Cluster mit Raspberry-Pi aufsetzt.

Später werde ich auch die Möglichkeiten mit Docker und in der Cloud zeigen.

Damit werden die Voraussetzungen geschaffen, für eine Reihe von Artikeln und Kursen, in denen ich die verschiedenen Big-Data-Technologien vorstelle und mit vielen Hands-On-Übungen illustriere. Zu Beginn natürlich das Hadoop Distributed File System mit seinem Ökosystem und später weitere Ökosysteme wie Spark und Kafka.