Pearson
Spezialisierung für Hadoop and Spark Fundamentals

Entdecken Sie neue Fähigkeiten mit 30% Rabatt auf Kurse von Branchenexperten. Jetzt sparen.

Diese spezialisierung ist nicht verfügbar in Deutsch (Deutschland)

Wir übersetzen es in weitere Sprachen.
Pearson

Spezialisierung für Hadoop and Spark Fundamentals

Get Started With Hadoop and Spark. Core components, tools, installation, and data processing for the Apache Hadoop Big Data ecosystem.

Pearson

Dozent: Pearson

Bei Coursera Plus enthalten

Befassen Sie sich eingehend mit einem Thema
Stufe Mittel

Empfohlene Erfahrung

1 Monat bei 5 Stunden pro Woche
Flexibler Zeitplan
Verdienen Sie sich einen beruflichen Leistungsnachweis
Teilen Sie Ihr Fachwissen mit Arbeitgebern
Befassen Sie sich eingehend mit einem Thema
Stufe Mittel

Empfohlene Erfahrung

1 Monat bei 5 Stunden pro Woche
Flexibler Zeitplan
Verdienen Sie sich einen beruflichen Leistungsnachweis
Teilen Sie Ihr Fachwissen mit Arbeitgebern

Was Sie lernen werden

  • Install, configure, and operate Hadoop and Spark environments on both single machines and clusters, utilizing tools like Ambari and Zeppelin for effective management and development.

  • Understand and apply core big data concepts, including HDFS, MapReduce, PySpark, HiveQL, and advanced data ingestion techniques using Flume and Sqoop.

  • Develop, run, and debug data analytics applications, leveraging higher-level tools and scripting languages to efficiently process and analyze large datasets.

Überblick

Was ist inbegriffen?

Zertifikat zur Vorlage

Zu Ihrem LinkedIn-Profil hinzufügen

Unterrichtet in Englisch
Kürzlich aktualisiert!

August 2025

11 Praxisübungen

Erweitern Sie Ihre Fachkenntnisse.

  • Erlernen Sie gefragte Kompetenzen von Universitäten und Branchenexperten.
  • Erlernen Sie ein Thema oder ein Tool mit echten Projekten.
  • Entwickeln Sie ein fundiertes Verständnisse der Kernkonzepte.
  • Erwerben Sie ein Karrierezertifikat von Pearson.

Spezialisierung - 3 Kursreihen

Was Sie lernen werden

  • Understand the core concepts of Hadoop, including its architecture, data lake metaphor, and the role of MapReduce and Spark in big data analytics.

  • Install and configure a full-featured Hadoop and Spark environment on your desktop or laptop using the Hortonworks HDP sandbox.

  • Navigate and utilize the Hadoop Distributed File System (HDFS), including advanced features like high availability and federation.

  • Gain hands-on experience running Hadoop and Spark applications, preparing you for real-world data analytics challenges.

Kompetenzen, die Sie erwerben

Kategorie: Apache Hadoop
Kategorie: Linux Commands
Kategorie: Apache Spark
Kategorie: File Systems
Kategorie: Linux
Kategorie: Data Management
Kategorie: System Configuration
Kategorie: Data Lakes
Kategorie: Distributed Computing
Kategorie: Data Processing
Kategorie: Command-Line Interface
Kategorie: Software Installation
Kategorie: Big Data

Was Sie lernen werden

  • Understand and implement Hadoop MapReduce for distributed data processing, including compiling, running, and debugging applications.

  • Apply advanced MapReduce techniques to real-world scenarios such as log analysis and large-scale text processing.

  • Utilize higher-level tools like Apache Pig and Hive QL to streamline data workflows and perform complex queries.

  • Gain hands-on experience with Apache Spark and PySpark for modern, scalable data analytics.

Kompetenzen, die Sie erwerben

Kategorie: Apache Spark
Kategorie: Apache Hadoop
Kategorie: Apache Hive
Kategorie: PySpark
Kategorie: Data Processing
Kategorie: Debugging
Kategorie: Data Mapping
Kategorie: Java
Kategorie: Java Programming
Kategorie: Distributed Computing
Kategorie: Analytics
Kategorie: Big Data
Kategorie: Text Mining

Was Sie lernen werden

  • Master advanced data ingestion techniques into Hadoop HDFS, including Hive, Spark, Flume, and Sqoop.

  • Develop and run interactive Spark applications using the Apache Zeppelin web interface.

  • Install, monitor, and administer Hadoop clusters with Ambari and essential command-line tools.

  • Utilize advanced HDFS features such as snapshots and NFS mounts for enhanced data management.

Kompetenzen, die Sie erwerben

Kategorie: Apache Hive
Kategorie: Apache Spark
Kategorie: Data Import/Export
Kategorie: Apache Hadoop
Kategorie: Big Data
Kategorie: Data Integration
Kategorie: Configuration Management
Kategorie: Relational Databases
Kategorie: Data Processing
Kategorie: Software Installation
Kategorie: Command-Line Interface
Kategorie: Data Pipelines
Kategorie: File Systems

Erwerben Sie ein Karrierezertifikat.

Fügen Sie dieses Zeugnis Ihrem LinkedIn-Profil, Lebenslauf oder CV hinzu. Teilen Sie sie in Social Media und in Ihrer Leistungsbeurteilung.

Dozent

Pearson
Pearson
230 Kurse4.182 Lernende

von

Pearson

Warum entscheiden sich Menschen für Coursera für ihre Karriere?

Felipe M.
Lernender seit 2018
„Es ist eine großartige Erfahrung, in meinem eigenen Tempo zu lernen. Ich kann lernen, wenn ich Zeit und Nerven dazu habe.“
Jennifer J.
Lernender seit 2020
„Bei einem spannenden neuen Projekt konnte ich die neuen Kenntnisse und Kompetenzen aus den Kursen direkt bei der Arbeit anwenden.“
Larry W.
Lernender seit 2021
„Wenn mir Kurse zu Themen fehlen, die meine Universität nicht anbietet, ist Coursera mit die beste Alternative.“
Chaitanya A.
„Man lernt nicht nur, um bei der Arbeit besser zu werden. Es geht noch um viel mehr. Bei Coursera kann ich ohne Grenzen lernen.“
Coursera Plus

Neue Karrieremöglichkeiten mit Coursera Plus

Unbegrenzter Zugang zu 10,000+ Weltklasse-Kursen, praktischen Projekten und berufsqualifizierenden Zertifikatsprogrammen - alles in Ihrem Abonnement enthalten

Bringen Sie Ihre Karriere mit einem Online-Abschluss voran.

Erwerben Sie einen Abschluss von erstklassigen Universitäten – 100 % online

Schließen Sie sich mehr als 3.400 Unternehmen in aller Welt an, die sich für Coursera for Business entschieden haben.

Schulen Sie Ihre Mitarbeiter*innen, um sich in der digitalen Wirtschaft zu behaupten.

Häufig gestellte Fragen