Big-Data-Speicher

Definition - Was bedeutet Big Data Storage?

Big Data Storage ist eine Speicherinfrastruktur, die speziell zum Speichern, Verwalten und Abrufen großer Datenmengen oder Big Data entwickelt wurde. Die Speicherung von Big Data ermöglicht die Speicherung und Sortierung von Big Data so, dass Anwendungen und Dienste, die mit Big Data arbeiten, problemlos auf diese zugreifen, sie verwenden und verarbeiten können. Big Data Storage kann bei Bedarf auch flexibel skaliert werden.

Technische.me erklärt Big Data Storage

Der Big-Data-Speicher unterstützt in erster Linie Speicher- und Eingabe- / Ausgabevorgänge beim Speichern mit einer sehr großen Anzahl von Datendateien und Objekten. Eine typische Big-Data-Speicherarchitektur besteht aus einer redundanten und skalierbaren Bereitstellung von DAS-Pools (Direct Attached Storage), einem Scale-Out- oder Clustered Network Attached Storage (NAS) oder einer Infrastruktur, die auf dem Objektspeicherformat basiert. Die Speicherinfrastruktur ist mit Computerserverknoten verbunden, die eine schnelle Verarbeitung und den Abruf großer Datenmengen ermöglichen. Darüber hinaus bieten die meisten Big-Data-Speicherarchitekturen / -infrastrukturen native Unterstützung für Big-Data-Analyselösungen wie Hadoop, Cassandra und NoSQL.