Hadoop gemeinsam

Definition - Was bedeutet Hadoop Common?

Hadoop Common bezieht sich auf die Sammlung allgemeiner Dienstprogramme und Bibliotheken, die andere Hadoop-Module unterstützen. Es ist ein wesentlicher Bestandteil oder ein Modul des Apache Hadoop Frameworks, zusammen mit dem Hadoop Distributed File System (HDFS), Hadoop YARN und Hadoop MapReduce. Wie alle anderen Module geht Hadoop Common davon aus, dass Hardwarefehler häufig sind und dass diese vom Hadoop Framework automatisch in der Software behandelt werden sollten.

Hadoop Common ist auch als Hadoop Core bekannt.

Technische.me erklärt Hadoop Common

Das Hadoop Common-Paket wird als Basis / Kern des Frameworks betrachtet, da es wesentliche Dienste und grundlegende Prozesse wie die Abstraktion des zugrunde liegenden Betriebssystems und seines Dateisystems bereitstellt. Hadoop Common enthält auch die erforderlichen JAR-Dateien (Java Archive) und -Skripts, die zum Starten von Hadoop erforderlich sind. Das Hadoop Common-Paket enthält außerdem Quellcode und Dokumentation sowie einen Beitragsabschnitt, der verschiedene Projekte aus der Hadoop-Community enthält.