DP-601 Implementieren eines Lakehouse mit Microsoft Fabric

Erforsche Apache Spark, Delta Lake und Dataflows für Lakehouses in der Azure-Welt

Dieser Kurs wurde entwickelt, um Deine grundlegenden Fähigkeiten in der Datentechnik auf Microsoft Fabric aufzubauen, wobei du Dich auf das Lakehouse-Konzept konzentrierst. Hier wirst Du die leistungsstarken Funktionen von Apache Spark für die verteilte Datenverarbeitung kennenlernen und die grundlegenden Techniken für effiziente Datenverwaltung, Versionsverwaltung und Zuverlässigkeit durch die Arbeit mit Delta Lake-Tabellen erforschen. Du wirst auch die Datenerfassung und Orchestrierung mithilfe von Dataflows Gen2- und Data Factory-Pipelines erkunden.

Was Du nach dem Training kannst:

  • Apache Spark anzuwenden
  • Delta Lake und Versionsverwaltung zu beherrschen
  • Dataflows Gen2 und Data Factory-Pipelines zu erstellen
  • Praktische Erfahrung in der Arbeit mit Lakehouses

Du hast noch Fragen zum Training? Dann vereinbare jetzt einen kostenlosen Beratungstermin:

Du brauchst ein Angebot?​ Gerne erstellen wir dir ein individuelles Angebot:

Angebot anfordern
1.290,00 € *

1.535,10 € inkl. MwSt. pro Schulung

Schulungsdauer

1 Tag(e)

Firmenschulung

Was ist eine Firmenschulung?

Exklusiv, individuell und auf die Bedürfnisse Deines Teams angepasst.

  • Ein Preis für bis zu 8 TN
  • Individuelle Gestaltung der Agenda
  • Möglichkeit zur Besprechung individueller Fragestellungen und Use-Cases
  • Durchführung: Live-Online via Microsoft Teams
  • Optional: Durchführung in unserem Schulungszentrum in Osnabrück oder in Ihrem Hause, weitere Teilnehmer, Schulungsunterlagen und Hands-on LABs gegen Aufpreis möglich
  • Weitere Informationen findest du hier
Implementierung eines Lakehouse mit Microsoft Fabric Einführung in die End-to-End-Analytik... mehr
  • Implementierung eines Lakehouse mit Microsoft Fabric
  • Einführung in die End-to-End-Analytik mit Microsoft Fabric
  • Erste Schritte mit Lakehouses in Microsoft Fabric
  • Verwendung von Apache Spark in Microsoft Fabric
  • Arbeiten mit Delta Lake-Tabellen in Microsoft Fabric
  • Einlesen von Daten mit Dataflows Gen2 in Microsoft Fabric
  • Verwendung von Data Factory-Pipelines in Microsoft Fabric
Täglich von 09:00 - ca. 16:30 Uhr Mittagspause von 12:30 - 13:30 Uhr Eine Bio-Break am Vor-... mehr

Täglich von 09:00 - ca. 16:30 Uhr

Mittagspause von 12:30 - 13:30 Uhr Eine

Bio-Break am Vor- und Nachmittag