Azure Data Engineer

Summary (French version 👉🏻👉🏻👉🏻👉🏻👉🏻👉🏻)

Global Data and BI is hiring on a rolling basis for Data, BI & analytics and ML/AI projects that we are involved in for large corporations. We offer enterprise-grade services with certified engineers in AWS and Microsoft Azure / Power BI technologies. Our focus is mostly on transformation projects within the financial industry. Our mission is to transform the corporate data journey from complexity to strategic clarity, ensuring data is not just collected, but leveraged to drive smarter decisions, stronger businesses, and lasting impact.

Our teams integrate the client’s operations. As a data engineer, you will collaborate with business stakeholders and your data team, to provide a data product that is sustainable and with highest maintainability over the long-term. 

You will create data collection, extraction, and transformation frameworks for structured and unstructured data. You will develop data infrastructure systems (e.g. data warehouses, data lakes) including data access points; prepare and manipulate data using Azure Data Factory and other data pipeline tools. You will also organize data into formats and structures that improve reuse and efficient delivery to businesses and analytics teams and system applications, integrate data across data lake, data warehouse and systems applications to ensure the delivery of information across the enterprise and be accountable for efficient architecture and systems design.

Follow us on LinkedIn to be notified of new job offers.

What you’ll do (roles & responsibilities):

  • Lead the architecture, design and implementation of complex data architecture and integration solutions including best practices for the full development life cycle, coding standards, code reviews, source control management, build processes, testing, and operations.

  • Lead end-to-end Azure cloud migration projects, ensuring seamless transition from on-premises to cloud environments.

  • Develop and enforce Azure security best practices and compliance policies in multi-cloud environments.

  • Provide hands-on expertise in debugging, troubleshooting, and performance tuning Azure environments.

  • Build and evolve the data service layer and engage the team to bring together components for an outstanding customer offering. Experienced in assessing overall data architecture and integrations and making ongoing improvements to the solution offering.

  • Develop Data Pipelines using modern tools

  • Create efficient load processes including logging and handling of exceptions, notification to support, and overall visibility operations.

  • Perform database monitoring, collaborate with database administrators to optimize database performance

  • Lead the analyses of models, relationships, and attributes to determine efficient design solutions according to needs

  • Collaborate with company partners to ensure adherence to standards for code, design, documentation, testing and deployment

  • Collaborate with data governance and strategy to ensure data lineage is well understood and constructed in a way to highlight data reuse and simplicity.

  • Assess new opportunities to simplify the data operation with new tools, technologies, file storage, management, and process. Use team context and experience to evaluate these opportunities and bring them forward to team members for assessment and implementation.

What you should have (Must-Haves):

  • Bachelor's degree required (master's an asset) in Software Engineering, Computer Science, or equivalent work experience in a Technology or business environment

  • Must-Have certifications: AZ-900 Azure Fundamentals, Azure Data Fundamentals, Azure Developer Associate, Azure Administration Associate, Azure Solution Architect Expert, DevOps Engineer Expert

  • Minimum of 7 years of experience working in developing and following structured work processes in data engineering

  • Minimum of 4 years of experience in Data Solutions Architecture

  • Minimum of 4 years of experience in integration solutions development with any pipeline Tools (Qlik, Talend, Informatica, DataStage, SSIS)

  • Demonstrated proficiency in Python, SQL, Databricks and all Azure services

  • Experience with Cloud platforms services such as Azure, AWS

  • Proficient in data modelling, data integrations, data orchestration, and supporting methodologies.

  • Proficient in leading large-scale projects or project steps and communicating progress/approach with technical/non-technical peers/clients and leaders.

  • Proficient in multiple programming languages and coding. Excellent ability to design and engineer moderately complex enterprise solutions.

  • Proficient in data management, governance, data design and database architecture. Experience manipulating, processing and extracting value from large, disconnected datasets.

  • Able to create BI dashboards for Azure performance monitoring, analytics and reporting in Power BI

  • Experience working with DevOps pipelines (Git, Gitlab, Jenkins), continuous integration/delivery, automated testing (unit, functional, performance)

  • Ability to take initiative, operate independently, and drive complex data management projects to completion.

  • Proficiency in English both written and spoken

It would be great if you also had (Nice-to-Haves):  

  • An experience with project management and progress tracking tools

  • An experience with Agile development methodologies. 

  • Strong knowledge of data governance frameworks and practices (e.g., DAMA, RDM, MDM, Data Quality).

  • Proficiency in French both written and spoken

Location: Remote, EST Timezone for all team members

Reporting Relationship : You will report to the Product Manager

Our commitment to diversity, equity, and inclusion 

We’re committed to employment equity and encourage women, Indigenous Peoples, persons with disabilities, veterans and persons of all races, ethnicities, religions, abilities, sexual orientations, and gender identities and expressions to apply. 

We also welcome applications from Latin America countries, as the position is remote.

What happens after you apply 

We know that applying for a new job can be both exciting and daunting, and we appreciate your effort. Our process is simple: 1.Apply, 2.Initial Call (1 hour) if pre-selected, 3.Panel Interview with 3 Experts in your domain (1h to 1h30) if you are shortlisted by our expert team 4.Hiring Decision: if you are selected we will send you an offer and next steps, otherwise, we will inform you by email.

If you are selected for an interview or testing, we will contact you via the email address you have provided. If we would like you to progress in the interview process, we will send you the Panel Interview invitation. If you don’t hear back from us after application or Initial Call, it means that we do not pursue your application.

If you applied before and you were not successful don’t worry, we're always posting new positions, so don’t hesitate to give it another shot. We’re excited to see what you bring to the table this time around!

Ingénieur Données Azure

Résumé

Global Data and BI recrute en continu pour des projets de données, BI & analytiques et ML/IA auxquels nous participons pour de grandes entreprises. Nous offrons des services de niveau entreprise avec des ingénieurs certifiés dans les technologies AWS et Microsoft Azure / Power BI. Notre focus principal porte sur les projets de transformation au sein de l'industrie financière. Notre mission est de transformer le parcours des données corporatives de la complexité vers la clarté stratégique, en s'assurant que les données ne soient pas seulement collectées, mais exploitées pour prendre des décisions plus intelligentes, créer des entreprises plus fortes et avoir un impact durable.

Nos équipes s'intègrent aux opérations du client. En tant qu'ingénieur de données, vous collaborerez avec les parties prenantes métier et votre équipe de données pour fournir un produit de données durable et avec la plus haute maintenabilité à long terme.

Vous créerez des frameworks de collecte, d'extraction et de transformation de données pour les données structurées et non structurées. Vous développerez des systèmes d'infrastructure de données (ex. entrepôts de données, lacs de données) incluant les points d'accès aux données ; préparerez et manipulerez les données en utilisant Azure Data Factory et d'autres outils de pipeline de données. Vous organiserez également les données dans des formats et structures qui améliorent la réutilisation et la livraison efficace aux équipes métier et analytiques et aux applications système, intégrerez les données à travers le lac de données, l'entrepôt de données et les applications système pour assurer la livraison d'informations à travers l'entreprise et serez responsable d'une architecture et conception de systèmes efficaces.

Suivez-nous sur LinkedIn pour être notifié.e de nouvelles offres d'emploi.

Ce que vous ferez (rôles et responsabilités) :

  • Diriger l'architecture, la conception et l'implémentation de solutions d'architecture de données complexes et d'intégration, incluant les meilleures pratiques pour le cycle de vie complet de développement, les standards de codage, les révisions de code, la gestion du contrôle source, les processus de construction, les tests et les opérations.

  • Diriger les projets de migration cloud Azure de bout en bout, assurant une transition transparente des environnements sur site vers le cloud.

  • Développer et faire respecter les meilleures pratiques de sécurité Azure et les politiques de conformité dans des environnements multi-cloud.

  • Fournir une expertise pratique en débogage, dépannage et optimisation des performances des environnements Azure.

  • Construire et faire évoluer la couche de service de données et engager l'équipe pour rassembler les composants pour une offre client exceptionnelle. Expérimenté dans l'évaluation de l'architecture de données globale et des intégrations et apporter des améliorations continues à l'offre de solution.

  • Développer des pipelines de données utilisant des outils modernes

  • Créer des processus de chargement efficaces incluant la journalisation et la gestion des exceptions, la notification au support, et la visibilité globale des opérations.

  • Effectuer la surveillance des bases de données, collaborer avec les administrateurs de bases de données pour optimiser les performances des bases de données

  • Diriger les analyses des modèles, relations et attributs pour déterminer des solutions de conception efficaces selon les besoins

  • Collaborer avec les partenaires de l'entreprise pour assurer l'adhérence aux standards de code, conception, documentation, tests et déploiement

  • Collaborer avec la gouvernance des données et la stratégie pour s'assurer que la lignée des données est bien comprise et construite de manière à mettre en évidence la réutilisation des données et la simplicité.

  • Évaluer de nouvelles opportunités pour simplifier l'opération des données avec de nouveaux outils, technologies, stockage de fichiers, gestion et processus. Utiliser le contexte et l'expérience de l'équipe pour évaluer ces opportunités et les présenter aux membres de l'équipe pour évaluation et implémentation.

Ce que vous devriez avoir (Exigences essentielles) :

  • Diplôme de baccalauréat requis (maîtrise un atout) en Génie logiciel, Informatique, ou expérience de travail équivalente dans un environnement technologique ou d'affaires

  • Certifications obligatoires : AZ-900 Azure Fundamentals, Azure Data Fundamentals, Azure Developer Associate, Azure Administration Associate, Azure Solution Architect Expert, DevOps Engineer Expert

  • Minimum de 7 années d'expérience en développement et suivi de processus de travail structurés en ingénierie de données

  • Minimum de 4 années d'expérience en Architecture de Solutions de Données

  • Minimum de 4 années d'expérience en développement de solutions d'intégration avec n'importe quels outils de pipeline (Qlik, Talend, Informatica, DataStage, SSIS)

  • Compétence démontrée en Python, SQL, Databricks et tous les services Azure

  • Expérience avec les services de plateformes Cloud tels qu'Azure, AWS

  • Compétent en modélisation de données, intégrations de données, orchestration de données, et méthodologies de support.

  • Compétent pour diriger des projets de grande envergure ou des étapes de projet et communiquer les progrès/approches avec des pairs/clients et dirigeants techniques/non-techniques.

  • Compétent dans plusieurs langages de programmation et codage. Excellente capacité à concevoir et ingénierer des solutions d'entreprise modérément complexes.

  • Compétent en gestion de données, gouvernance, conception de données et architecture de bases de données. Expérience dans la manipulation, le traitement et l'extraction de valeur à partir de grands ensembles de données déconnectés.

  • Capable de créer des tableaux de bord BI pour la surveillance des performances Azure, l'analytique et les rapports dans Power BI

  • Expérience de travail avec les pipelines DevOps (Git, Gitlab, Jenkins), intégration/livraison continue, tests automatisés (unitaires, fonctionnels, performance)

  • Capacité à prendre l'initiative, opérer de manière indépendante, et mener des projets complexes de gestion de données à leur achèvement.

Ce serait formidable si vous aviez aussi (Atouts) :

  • Une expérience avec les outils de gestion de projet et de suivi des progrès

  • Une expérience avec les méthodologies de développement Agile.

  • Une solide connaissance des cadres et pratiques de gouvernance des données (ex. DAMA, RDM, MDM, Qualité des données).

Localisation : Télétravail, fuseau horaire EST pour tous les membres de l'équipe

Relation hiérarchique : Vous relèverez du Gestionnaire de Produit

Notre engagement envers la diversité, l'équité et l'inclusion

Nous nous engageons à l'équité en matière d'emploi et encourageons les femmes, les Peuples autochtones, les personnes handicapées, les vétérans et les personnes de toutes races, ethnies, religions, capacités, orientations sexuelles, et identités et expressions de genre à postuler.

Nous accueillons également les candidatures des pays d'Amérique latine, car le poste est en télétravail.

Que se passe-t-il après votre candidature

Nous savons que postuler pour un nouvel emploi peut être à la fois excitant et intimidant, et nous apprécions votre effort. Notre processus est simple : 1. Postuler, 2. Appel initial (1 heure) si présélectionné, 3. Entretien de panel avec 3 experts de votre domaine (1h à 1h30) si vous êtes présélectionné par notre équipe d'experts 4. Décision d'embauche : si vous êtes sélectionné, nous vous enverrons une offre et les prochaines étapes, sinon, nous vous informerons par courriel.

Si vous êtes sélectionné pour un entretien ou un test, nous vous contacterons via l'adresse courriel que vous avez fournie. Si nous souhaitons que vous progressiez dans le processus d'entretien, nous vous enverrons l'invitation à l'entretien de panel. Si vous n'avez pas de nouvelles de nous après la candidature ou l'appel initial, cela signifie que nous ne poursuivons pas votre candidature.

Si vous avez postulé auparavant et que vous n'avez pas été retenu, ne vous inquiétez pas, nous publions toujours de nouveaux postes, alors n'hésitez pas à retenter votre chance. Nous sommes impatients de voir ce que vous apportez cette fois-ci !