Hadoop - kleiner Elefant für große Daten

Hadoop ist eine auf Java basierende Open-Source-Lösung, die ein skalierbares und zeitgleich verteiltes Verarbeiten von großen Datenmengen ermöglicht: verteilt deswegen, weil mehrere Rechner eines Netzwerks an den Daten arbeiten können. Dies setzt ein spezielles Dateisystem voraus – nämlich eines, das verteilte Bearbeitung ermöglicht. Im Hadoop-Kontext handelt es sich dabei um das „Hadoop Distributed File System“, kurz HDFS. Das verteilte Dateisystem hat den von Google vorgeschlagenen „MapReduce-Algorithmus“ implementiert und wurde darauf optimiert. Der Suchmaschinengigant hat diesen Algorithmus speziell für die Verarbeitung von großen Datenmengen, also für den Einsatz mit „Big Data“, entwickelt.

Weitere Informationen zu Hadoop hat der Autor Thomas Drilling in seinem Artikel "Hadoop mischt den Big-Data-Markt auf" zusammengefasst. (Quelle: Computerwoche)

 

 

Ihr Ansprechpartner

Wir
freuen uns auf Ihren Anruf unter
+49 (0) 711 585 308 0
oder Ihr E-Mail an info (at) daseq.de

Für jedes Produkt das richtige Know-how

Auf unseren Schulungsseiten finden Sie, ergänzend zu unseren Produkten und Consulting Services, ein breites Angebot an Kursen für Anwender und Administratoren.

Red Hat Enterprise Clustering & Storage Management (RH436)

Dieser praxisnahe Intensivkurs befasst sich mit dem Speicher-Management, dem Red Hat Hochverfügbarkeits-Add-On und der Technologie für gemeinsam genutzten Speicher, die durch das Dateisystem Red Hat Global File System 2 (GFS2) und den Red Hat Storage Server bereitgestellt wird.