Aller au contenu

Azure Synapse

Pour commencer

Démarrer et arrêter un pool SQL dédié

  1. Cliquez sur l’onglet Intégrer.

Manage tab

  1. Sous Pipelines, cliquez soit sur Start Dedicated SQL Pool, soit sur Pause Dedicated SQL Pool. Ensuite, cliquez sur le bouton de déclenchement pour ouvrir un menu, puis sélectionnez Déclencher maintenant. À l’écran suivant, cliquez sur OK.

Start or Stop SQL Pools

Accueil Accueil

L’onglet Accueil est l’endroit où vous commencez lorsque vous ouvrez Azure Synapse Studio pour la première fois.

À partir de cet endroit, vous pouvez accéder à des raccourcis pour des tâches courantes telles que la création de scripts SQL ou de notebooks en cliquant sur le bouton du menu déroulant Nouveau. Les ressources récemment ouvertes sont également affichées.

Données Données

L’onglet Données est l’endroit où vous pouvez explorer tout ce qui se trouve dans votre base de données et les jeux de données liés.

Sous l’onglet Espace de travail, vous pouvez explorer la base de données du pool SQL dédié ainsi que toutes les bases de données Spark.

Sous l’onglet Lié, vous pouvez explorer des objets externes (p. ex. comptes Data Lake) et explorer et créer tous jeux de données d’intégration à partir de données externes liées (p. ex. Data Lake, stockage Blob, service Web) à utiliser dans les pipelines.

Comment introduire des données à partir de services liés

Note: Cet exemple montre comment obtenir des données à partir de Data Lake, bien qu’il y ait de nombreux types de sources disponibles.

  1. Cliquez sur le bouton « + » pour ajouter une nouvelle ressource, puis cliquez sur Jeu de données d’intégration.

Add New Resource

  1. Sélectionnez Azure Data Lake Storage Gen2 (pour ce faire, vous devrez peut-être effectuer une recherche), puis cliquez sur Continuer.

Azure Data Lake Storage Gen2

  1. Sélectionnez le type de format, puis cliquez sur Continuer.

  2. Saisissez un nom, puis cliquez sur le menu déroulant sous Service lié. Sélectionnez ensuite votre lac de données.

Set properties

  1. Sous Runtime d’intégration, assurez-vous que la création interactive est activée. Dans la négative, cliquez sur le bouton d’édition pour l’activer, puis cliquez sur Appliquer.

Enable interactive authoring

  1. Définissez des propriétés supplémentaires comme il convient, puis cliquez sur OK.

Comment explorer les données dans le lac de données

Recherchez votre fichier de données (CSV, Parquet, JSON, Avro, etc.) et faites un clic droit dessus. Un menu s’ouvre avec des options permettant d’avoir un aperçu des données ou de créer des ressources telles que des scripts SQL et des notebooks.

Read Data from CSV File

Comment explorer le pool SQL dédié

Sous l’onglet Espace de travail, vous pouvez explorer les bases de données de manière similaire à SQL Server Management Studio. Cliquez avec le bouton droit de la souris sur n’importe quel tableau, mettez en surbrillance Nouveau script SQL, puis cliquez sur Sélectionner les 100 premières lignes pour créer une nouvelle requête. Vous pouvez ensuite afficher les résultats sous forme de tableau ou de graphique.

Explore Dedicated SQL Pool

Importation de données vers le pool SQL dédié

Pour importer des données vers le pool SQL dédié, vous pouvez soit: - créer un pipeline avec une activité de copie de données (la plus efficace pour les grands jeux de données); - utiliser l’assistant Chargement en masse.

Développer Développer

À partir de là, vous pouvez créer et enregistrer des ressources telles que des scripts SQL, des notebooks et des rapports Power BI.

Pour ajouter une nouvelle ressource, cliquez sur le bouton «+». Un menu déroulant s’ouvre.

Add a Resource

Pour rendre vos modifications visibles aux autres, vous devez cliquer sur le bouton Publier.

Scripts SQL

Assurez-vous de vous connecter à votre pool SQL dédié pour exécuter des scripts SQL.

SQL Scripts

Notebooks

Pour exécuter les cellules notebook, vous devez d’abord sélectionner votre pool Apache Spark.

Notebooks

Pour changer de langue pour une seule cellule, vous pouvez utiliser les commandes magiques suivantes : %%pyspark, %%spark, %%csharp et %%sql. Vous pouvez également modifier la langue par défaut à l’aide du menu déroulant Langue.

Change language

Flux de données

Pour ajouter une source à un flux de données, cliquez sur le bouton «+» sous Paramètres de la source, puis sélectionnez Azure Data Lake Storage Gen2 (pour ce faire, vous devrez peut-être effectuer une recherche). Cliquez sur Continuer, sélectionnez le format de données, puis, sur la page suivante, sélectionnez votre service lié.

Dataflows

Rapports Power BI

Vous pouvez afficher et créer des rapports Power BI directement dans Azure Synapse. Veuillez communiquer avec l’équipe d’assistance de l’Environnement d’analyse collaborative pour valider qu’un service lié est configuré.

Intégrer Intégrer

C’est ici que vous pouvez créer des pipelines pour ingérer, préparer et transformer toutes vos données, comme dans Azure Data Factory.

Exemple : Copier les données d’un blob externe vers un lac de données

  1. Cliquez sur le bouton «+» pour ajouter une nouvelle ressource, puis cliquez sur Pipeline.

Add a Resource

  1. Sous Déplacer et transformer, faites glisser et déposez Copier les données dans la fenêtre.

Drag and drop Copy data

  1. Cliquez sur l’onglet Source, puis cliquez sur Nouveau pour ajouter le jeu de données source (d’où vous voulez copier les données).

Add source dataset

  1. Sélectionnez Azure Blob Storage, puis sélectionnez le type de format (CSV, Parquet, JSON, etc.). Définissez toute propriété supplémentaire si nécessaire, puis cliquez sur OK.

  2. Cliquez sur Récepteur, puis sur Nouveau pour définir le jeu de données récepteur (où vous souhaitez que les données soient copiées). Choisissez Azure Data Lake Storage Gen2, puis sélectionnez le type de format. Sous Service lié, choisissez votre lac de données et assurez-vous que la création interactive est activée (voir Comment introduire des données à partir de services liés sous Données pour de plus amples renseignements).

Débogage et exécution des pipelines

Pour exécuter un pipeline en mode débogage, cliquez sur le bouton Déboguer en haut de la fenêtre du pipeline. Les résultats figureront dans l’onglet Sortie.

Debugging pipelines

Pour exécuter un pipeline sans déboguer, cliquez sur le bouton Ajouter un déclencheur, puis sur Déclencher maintenant.

Lorsque vous êtes prêt à publier vos pipelines, cliquez sur le bouton Tout valider, puis sur Tout publier. Il est à noter que cette publication permettra à l’ensemble des utilisateurs de voir tout ce que vous avez actuellement ouvert (pipelines, scripts SQL, notebooks, etc.).

Publish pipelines

Superviser Superviser

À partir de l’onglet Superviser, vous pouvez superviser les exécutions en direct du pipeline (les entrées et les sorties de chaque activité et les éventuelles erreurs) et afficher l’historique des exécutions du pipeline, des déclencheurs, des requêtes SQL, etc.

Gérer Gérer

C’est ici que vous pouvez : - ajouter de nouveaux pools SQL ou Apache Spark; - ajouter de nouveaux services liés; - accorder à d’autres personnes l’accès à l’espace de travail; - configurer l’intégration de Git.

Documentation Microsoft

Changer la langue d’affichage

Consultez la page Langue pour savoir comment modifier la langue d’affichage.