Overview
Skills
Job Details
Job Description
Qui nous sommes
Nous sommes Datavalet, un acteur en pleine croissance dans le monde du Wi-Fi, des rseaux grs et des solutions logicielles d'affaires. Nous crons l'avenir des expriences numriques connectes. Nous sommes une entreprise de taille moyenne avec des bureaux Montral, Toronto et Charlotte, NC. Le dveloppement durable est au c?ur de tout ce que nous faisons, comme l'illustre notre certification Ecocert. Nous prenons soin de notre plante, de nos communauts et de nos pratiques sociales.
Nous sommes une entreprise technologique, donc nous sommes passionns par la cration de solutions qui rpondent des problmes rels et qui sont la fine pointe de la technologie.
Ce que nous recherchons
Nous recherchons un Ingnieur de Donnes expriment, dot de solides comptences en leadership, pour rejoindre notre quipe DataOps et jouer un rle cl dans la construction et l'optimisation des pipelines de donnes sur Google Cloud Platform. Dans ce rle, vous participerez activement la conception et l'optimisation des pipelines de donnes sur Google Cloud Platform, en mettant galement l accent sur la conception architecturale, la documentation et le partage de connaissances au sein de l quipe.
Responsabilits :
- Concevoir, dvelopper et maintenir des pipelines de donnes en utilisant les produits Google Cloud, tels que Cloud BigQuery, Google Cloud Storage, Cloud Pub/Sub et Cloud BigTable.
- laborer des diagrammes d architecture pour visualiser le flux de donnes et les composants du systme afin de faciliter la communication au sein de l quipe.
- Rdiger une documentation complte pour assurer le transfert de connaissances et le respect des meilleures pratiques.
- Mettre en place et maintenir des cadres de gouvernance des donnes pour garantir la qualit, la scurit et la conformit des donnes.
- Optimiser les cots du cloud en grant efficacement les ressources sur Google Cloud Platform.
- Stimuler l'innovation en diffusant les meilleures pratiques et en favorisant une culture d'amlioration continue au sein de l'quipe.
- Contribuer la mise en ?uvre de projets de Data Warehouse ou de Big Data en utilisant des technologies telles que Kafka, DataProc, Hadoop, Spark, etc.
Exigences :
- Plus de 3 ans d exprience avre en analyse de donnes, dploiement de systmes de traitement de donnes distribus et gouvernance des donnes.
- Matrise de Python, Go, Java ou d'autres langages de programmation.
- Exprience pratique avec Google BigQuery, y compris l'optimisation des requtes et la gestion de grands ensembles de donnes.
- Expertise dans la conception et la maintenance de pipelines de donnes robustes pour un flux de donnes efficace.
- Solide connaissance des concepts de Data Warehouse et des meilleures pratiques.
- Comptences avances en analyse pour extraire des informations partir de jeux de donnes complexes.
- Qualits de leadership, avec un accent sur le partage des connaissances et la promotion d'une culture d'amlioration continue.
- Une certification cloud (par exemple, Google Cloud Platform) est un atout.
Atouts :
- Exprience dans la cration de diagrammes d'architecture pour visualiser les composants du systme et le flux de donnes.
- Engagement fort pour la rdaction d'une documentation complte pour le transfert de connaissances.
- Capacit diffuser les meilleures pratiques et encourager l'innovation au sein de l quipe.
- Connaissance du traitement en temps rel et de l intgration de sources de donnes varies.
---------------
Who We Are
We are Datavalet, a growing player in the world of Wi-Fi, managed networks, and business software solutions. We re creating the future of connected digital experiences. We are a mid-sized company with offices in Montreal, Toronto, and Charlotte, NC. Sustainable development is at the heart of everything we do, as illustrated by our Ecocert certification. We take care of our planet, our communities, and our social practices.
We re a technology company, so we re passionate about creating solutions that solve real problems and that are on the cutting edge.
What We re Looking for
We are seeking a skilled Data Engineer with a strong emphasis on leadership capabilities to join our DataOps team and play a key role in building and optimizing data pipelines on Google Cloud Platform. In this role, you will play a pivotal part in designing and optimizing data pipelines in Google Cloud Platform while also focusing on architectural design, documentation, and knowledge sharing within the team.
Responsibilities:
- Design, develop, and maintain data pipelines leveraging Google Cloud products such as Cloud BigQuery, Google Cloud Storage, Cloud Pub/Sub, and Cloud BigTable.
- Draft architecture diagrams to visualize data flow and system components for effective communication within the team.
- Develop comprehensive documentation to ensure knowledge transfer and maintain best practices.
- Implement and uphold data governance frameworks to ensure data quality, security, and compliance.
- Optimize cloud costs by efficiently managing resources on Google Cloud Platform.
- Drive innovation by spreading best practices and fostering a culture of continuous improvement within the team.
- Contribute to the implementation of Data Warehouses or Big Data projects using technologies like Kafka, DataProc, Hadoop, Spark, etc.
Requirements:
- 3+ years of demonstrated experience in data analytics, deploying distributed data processing systems, and data governance.
- Proficiency in Python, Go, Java, or other coding languages.
- Hands-on experience with Google BigQuery including query optimization and large dataset management.
- Expertise in designing and maintaining robust data pipelines for efficient data flow.
- Strong background in data warehousing concepts and best practices.
- Advanced analytics skills for deriving insights from complex datasets.
- Leadership qualities with a focus on knowledge sharing and fostering a culture of continuous improvement.
- Cloud certification (e.g., Google Cloud Platform) is preferred.
Additional Skills:
- Experience in drafting architecture diagrams to visualize system components and data flow.
- Strong commitment to writing comprehensive documentation for knowledge transfer.
- Ability to spread best practices and drive innovation within the team.
- Knowledge of real-time streaming and processing of diverse data sources.