Bewertung:

Derzeit gibt es keine Leserbewertungen. Die Bewertung basiert auf 12 Stimmen.
Mastering Hadoop 3: Big data processing at scale to unlock unique business insights
Ein umfassender Leitfaden zur Beherrschung der fortgeschrittensten Hadoop 3-Konzepte.
Hauptmerkmale
⬤ Machen Sie sich mit den neu eingeführten Funktionen und Möglichkeiten von Hadoop 3 vertraut.
⬤ Verarbeiten Sie Daten mit MapReduce, YARN und einer Vielzahl von Tools innerhalb des Hadoop-Ökosystems.
⬤ Vertiefen Sie Ihre Hadoop-Kenntnisse mit Fallstudien und Code aus der Praxis.
Buchbeschreibung
Apache Hadoop ist eine der beliebtesten Big-Data-Lösungen für die verteilte Speicherung und Verarbeitung großer Datenmengen. Mit Hadoop 3 verspricht Apache eine hochleistungsfähige, fehlertolerante und hocheffiziente Big-Data-Verarbeitungsplattform mit dem Schwerpunkt auf verbesserter Skalierbarkeit und höherer Effizienz.
Mit diesem Handbuch werden Sie fortgeschrittene Konzepte des Hadoop-Ökosystems verstehen. Sie erfahren, wie Hadoop intern funktioniert, lernen fortgeschrittene Konzepte verschiedener Ökosystem-Tools kennen, entdecken Lösungen für reale Anwendungsfälle und verstehen, wie Sie Ihren Cluster sichern können. Anschließend werden Sie durch HDFS, YARN, MapReduce und Hadoop 3-Konzepte geführt. Sie werden in der Lage sein, gängige Herausforderungen wie die effiziente Nutzung von Kafka, die Entwicklung von Kafka-Systemen mit geringer Latenz und zuverlässiger Nachrichtenübermittlung sowie den Umgang mit großen Datenmengen zu meistern. Im Laufe des Buches erfahren Sie, wie Sie die größten Herausforderungen beim Aufbau eines unternehmensgerechten Messaging-Systems meistern und wie Sie verschiedene Stream-Processing-Systeme zusammen mit Kafka einsetzen können, um Ihre Unternehmensziele zu erreichen.
Am Ende dieses Buches werden Sie ein vollständiges Verständnis dafür haben, wie Komponenten im Hadoop-Ökosystem effektiv integriert werden, um eine schnelle und zuverlässige Datenpipeline zu implementieren, und Sie werden in der Lage sein, eine Reihe von realen Problemen in Datenpipelines anzugehen.
Was Sie lernen werden
⬤ Vertieftes Verständnis der verteilten Datenverarbeitung mit Hadoop 3.
⬤ Entwickeln Sie mit Apache Spark, Flink und mehr Anwendungen auf Unternehmensebene.
⬤ Erstellen Sie skalierbare und leistungsstarke Hadoop-Datenpipelines mit Sicherheit, Überwachung und Datenverwaltung.
⬤ Erforschen Sie Batch-Datenverarbeitungsmuster und wie man Daten in Hadoop modelliert.
⬤ Beherrschen Sie Best Practices für Unternehmen, die Hadoop 3 als Datenplattform nutzen oder nutzen wollen.
⬤ Verstehen Sie die Sicherheitsaspekte von Hadoop, einschließlich Autorisierung und Authentifizierung.
Für wen ist dieses Buch gedacht?
Wenn Sie ein Big-Data-Profi werden wollen, indem Sie die fortgeschrittenen Konzepte von Hadoop beherrschen, ist dieses Buch genau das Richtige für Sie. Dieses Buch ist auch für Hadoop-Profis nützlich, die ihr Wissen über das Hadoop-Ökosystem vertiefen möchten. Grundlegende Kenntnisse der Programmiersprache Java und der Grundlagen von Hadoop sind erforderlich, um mit diesem Buch zu beginnen.