Descrizione
Programma
Prerequisiti
Obiettivi
Descrizione
Codice corso: DP-203T00
Data Engineering on Microsoft Azure
In questo corso, lo studente apprenderà i concetti dell'ingegneria dei dati nell'ambito dell'uso di soluzioni di analisi in batch e in tempo reale usando le tecnologie della piattaforma dati di Azure. Gli studenti inizieranno conoscendo le tecnologie di calcolo e archiviazione di base usate per creare una soluzione analitica. Gli studenti impareranno a esplorare in modo interattivo i dati archiviati nei file in un data lake. Apprenderanno le varie tecniche di inserimento che possono essere usate per caricare i dati usando la funzionalità Apache Spark disponibile in Azure Synapse Analytics o Azure Databricks o come eseguire l'inserimento con Azure Data Factory o pipeline di Azure Synapse. Gli studenti apprenderanno anche i vari modi in cui possono trasformare i dati usando le stesse tecnologie usate per l'inserimento. Comprenderanno l'importanza di implementare la sicurezza per garantire che i dati siano protetti sia nello stato inattivo che in transito. Lo studente mostrerà quindi come creare un sistema analitico in tempo reale per creare soluzioni analitiche in tempo reale.
Programma
Modulo 1: Esplorare le opzioni di calcolo e archiviazione per i carichi di lavoro di ingegneria dei dati
Introduzione ad Azure Synapse Analytics
Descrivere Azure Databricks
Introduzione ad Azure Data Lake Storage
Descrivere l'architettura di Delta Lake
Usare i flussi dei dati con Analisi di flusso di Azure
Modulo 2: Eseguire query interattive usando pool SQL serverless di Azure Synapse Analytics
Esplorare le funzionalità dei pool SQL serverless di Azure Synapse
Eseguire query sui dati nel data lake usando i pool SQL serverless di Azure Synapse
Creare oggetti metadati nei pool SQL serverless di Azure Synapse
Proteggere i dati e gestire gli utenti nei pool SQL serverless di Azure Synapse
Modulo 3: Esplorazione e trasformazione dei dati in Azure Databricks
Descrivere Azure Databricks
Leggere e scrivere dati in Azure Databricks
Usare i DataFrame in Azure Databricks
Usare i metodi avanzati dei DataFrame in Azure Databricks
Modulo 4: Esplorare, trasformare e caricare dati nel data warehouse usando Apache Spark
Informazioni sull'ingegneria dei Big Data con Apache Spark in Azure Synapse Analytics
Inserire dati con i notebook di Apache Spark in Azure Synapse Analytics
Trasformare i dati con dataframe in pool di Apache Spark in Azure Synapse Analytics
Integrare pool SQL e di Apache Spark in Azure Synapse Analytics
Modulo 5: Inserire e caricare dati nel data warehouse
Usare le procedure consigliate per il caricamento dati in Azure Synapse Analytics
Inserimento a livello di petabyte con Azure Data Factory
Modulo 6: Trasformare i dati con Azure Data Factory o pipeline di Azure Synapse
Integrazione dei dati con Azure Data Factory o pipeline di Azure Synapse
Trasformazione senza codice su larga scala con Azure Data Factory o pipeline di Azure Synapse
Modulo 7: Orchestrare lo spostamento e la trasformazione dei dati in pipeline di Azure Synapse
Orchestrare lo spostamento e la trasformazione dei dati in Azure Data Factory
Modulo 8: Sicurezza end-to-end con Azure Synapse Analytics
Proteggere una data warehouse in Azure Synapse Analytics
Configurare e gestire segreti in Azure Key Vault
Implementare i controlli di conformità per i dati sensibili
Modulo 9: Supporto dell'elaborazione analitica transazionale ibrida con Collegamento a Synapse di Azure
Progettare un'elaborazione transazionale e analitica ibrida con Azure Synapse Analytics
Configurare il collegamento ad Azure Synapse con Azure Cosmos DB
Eseguire query in Azure Cosmos DB con pool di Apache Spark
Eseguire query in Azure Cosmos DB con pool SQL serverless
Modulo 10: Elaborazione di flussi in tempo reale con Analisi di flusso
Abilitare una messaggistica affidabile per applicazioni di Big Data tramite Hub eventi di Azure
Usare i flussi dei dati con Analisi di flusso di Azure
Inserire flussi di dati con Analisi di flusso di Azure
Modulo 11: Creare una soluzione di elaborazione dei flussi con Hub eventi e Azure Databricks
Elaborare i dati di streaming con Azure Databricks Structured Streaming
Prerequisiti
Per ottenere risultati validi, è consigliabile che gli studenti inizino questo corso con conoscenze dei concetti di base di cloud computing e dei dati e con esperienza professionale di soluzioni per i dati.
Nello specifico è consigliato il completamento dei corsi seguenti:
AZ-900 – Azure Fundamentals
DP-900 – Microsoft Azure Data Fundamentals
Obiettivi
I destinatari principali di questo corso sono i professionisti dei dati, gli architetti dei dati e i professionisti di business intelligence che vogliono acquisire competenze sull'ingegneria dei dati e la creazione di soluzioni analitiche usando tecnologie della piattaforma dati esistenti in Microsoft Azure. I destinatari secondari di questo corso sono gli analisti dei dati e i dati scientist che lavorano con soluzioni analitiche create in Microsoft Azure.
-
Rif:
DP-203T00
-
DATE:
-
DURATA:
4 giorni
- COSTO: 1100 €