Data Engineer (H/F)
Au coeur de l'ingénierie, notre passion, votre réussite.
Nous répondons généralement sous une semaine
Dans le cadre du renforcement de notre équipe Data, nous recherchons un Data Engineer confirmé afin de concevoir, développer et maintenir des architectures de données robustes sur Google Cloud Platform.
Vous interviendrez dans un environnement à fort volume de données, avec un fort enjeu de scalabilité, de performance et de fiabilité des pipelines data.
Missions principales
Ingénierie des données (GCP)
Concevoir et industrialiser des pipelines d’ingestion, de transformation et d’exposition de données sur Google Cloud Platform (Dataflow, Cloud Functions, Pub/Sub, Cloud Composer)
Modéliser et administrer un entrepôt de données BigQuery selon une architecture en couches (Data Warehouse / Data Mart) optimisée pour l’analytique à grande échelle
Écrire et optimiser des requêtes SQL complexes (fenêtrage, partitionnement, clustering, optimisation des coûts de scan)
Mettre en place des contrôles qualité des données : tests de cohérence, détection d’anomalies, alerting
Infrastructure as Code & automatisation
Déployer et versionner l’infrastructure data via Terraform (BigQuery, GCS, IAM, service accounts, scheduled queries…)
Mettre en place des workflows CI/CD pour assurer la reproductibilité et la traçabilité des déploiements
Documenter les modules Terraform et maintenir un catalogue des ressources
Restitution & datavisualisation
Construire et maintenir des dashboards Looker Studio connectés à BigQuery
Garantir la performance des rapports (optimisation des requêtes, caching, extracts)
Assurer la cohérence des indicateurs entre les différents tableaux de bord
Transverse & amélioration continue
Participer à la définition des standards Data (naming conventions, revue de code SQL, documentation)
Assurer une veille technologique sur l’écosystème GCP et proposer des améliorations
Accompagner les profils plus juniors sur les bonnes pratiques Data Engineering
Profil recherché
Expérience de 5 ans minimum après diplôme en Data Engineering
Maîtrise confirmée de Google Cloud Platform : BigQuery, Dataflow, Pub/Sub, Cloud Storage, Cloud Composer, IAM
Excellente maîtrise du SQL avancé (modélisation, optimisation, volumes importants)
Solide expérience sur Terraform (modules, state, CI/CD)
Bonne connaissance de Looker Studio ou outils de datavisualisation équivalents
Rigueur, autonomie et forte capacité d’analyse
Esprit d’équipe et appétence pour le travail en environnement data complexe
💡 Pourquoi nous rejoindre ?
Vous évoluerez dans un environnement data moderne et exigeant, avec des enjeux forts de performance et de scalabilité.
Vous interviendrez sur des architectures cloud à grande échelle et contribuerez directement à la structuration de la plateforme data.
🎁 Petits plus
Carte Swile (Ticket restaurant) créditée de 10€/ jour travaillé, dont 60% pris en charge par YEVO
9 à 12 jours de RTT
100% abonnements de transports en commun ou participation aux frais de transport
CSE
Mutuelle optionnée
Prévoyance prise en charge à 100%
Formation et accompagnement à la montée en compétence
🚀 Prêt à nous rejoindre ?
Dépose ton CV et si ça matche, on en discute !
🌍 Engagement Diversité & Inclusion
Chez YEVO, nous valorisons la diversité sous toutes ses formes. Toutes les candidatures sont étudiées avec attention — seul le talent compte.
- Localisations
- YEVO | Bordeaux
- Statut à distance
- Hybride
- Type de contrat
- CDI
À propos de YEVO
Nos valeurs fondamentales guident chaque projet que nous entreprenons et définissent notre approche du conseil en ingénierie.