Data Engineer - CDI - Paris

Yomoni recrute !

À propos

Yomoni, c'est une décennie de confiance, de performance et de conseil.

Depuis 2015, nous proposons une nouvelle forme de patrimoine :

Une solution de confiance, sĂ©rieuse, mais actuelle, pragmatique et humaine, performante et personnalisĂ©e, pour ceux qui souhaitent construire leur patrimoine brique par brique tout en bĂ©nĂ©ficiant d’une gestion de qualitĂ©.

Nous proposons les solutions d’épargne que vous connaissez (Assurance-Vie, PER, PEA, Compte-Titres, etc) auxquelles nous avons enlevĂ© tous les irritants :

  • Une souscription 100% en ligne. Aucun papier. Un service mobile 24/7.

  • Aucuns frais d’entrĂ©e. Aucuns frais de sortie.

  • Une gamme multi-rĂ©compensĂ©e, des partenariats avec des maisons d’exception, des offres souvent inĂ©dites sur le marchĂ© français.

  • Labellisation B-Corp

💡 Yomoni est la seule sociĂ©tĂ© de gestion française 100% en ligne spĂ©cialisĂ©e dans les ETF agréée par l’AMF (l’AutoritĂ© des MarchĂ©s Financiers).

Descriptif du poste

💙 Rejoins une fintech qui construit la Data de demain

🚀 Pourquoi ce poste ?
Chez Yomoni, on veut rendre l’épargne simple, transparente et accessible Ă  tous.

Notre mission : permettre à chaque épargnant de faire grandir son argent avec confiance.

Pour y parvenir, la donnĂ©e est au cƓur de tout :

elle éclaire nos décisions stratégiques, alimente nos produits et soutient nos projets IA.

Nous venons de poser les bases d’une modern data stack (Snowflake, DBT, Fivetran, Hightouch) et cherchons aujourd’hui un(e) Data Engineer pour renforcer son architecture, fiabiliser ses pipelines et construire une infrastructure solide et scalable.

👉 Si tu veux construire plutît que maintenir, et laisser ton empreinte dans une fintech en pleine croissance, ce poste est fait pour toi.

Tu rejoindras une équipe Data en expansion (Head of Data + Data Analyst confirmé),

au cƓur des enjeux produit, mĂ©tier et technologiques.

Ton rĂŽle : garantir la robustesse, la scalabilitĂ© et la qualitĂ© de l’infrastructure data.

🎯 Tes missions :

1. Construire et maintenir des pipelines d'ingestion

  • DĂ©velopper des pipelines d’ingestion hors connecteurs (APIs internes, fichiers SFTP, bases propriĂ©taires, etc.).

  • Superviser et maintenir les flux existants (Fivetran et futurs outils).

  • GĂ©rer l’orchestration (Dbt, Fivetran), l’historisation et la qualitĂ© des donnĂ©es.

  • Mettre en place du monitoring technique et des tests d’intĂ©gritĂ© automatisĂ©s.

2. Industrialiser l'usinde de transformation (Dbt)

  • Mettre en place et maintenir un CI/CD pour Dbt (Pull Request, tests automatiques, dĂ©ploiement).

  • IntĂ©grer des tests de cohĂ©rence et de fraĂźcheur.

  • Surveiller les jobs (logs, scheduler, notifications).

  • Collaborer avec le Head of Data et le Data Analyst pour fiabiliser les modĂšles mĂ©tiers.

3. Distribuer la donnée vers les outils métiers

  • Garantir que la donnĂ©e transformĂ©e arrive lĂ  oĂč elle est utile : CRM, support, marketing, finance


  • Étendre les cas d’usage non couverts par Hightouch (API custom, exports automatisĂ©s).

  • S’assurer de la fraĂźcheur, de la cohĂ©rence et de la traçabilitĂ© des donnĂ©es distribuĂ©es.

4. Monitoring, performance & data reliability

  • Mettre en place un monitoring global de la stack : fraĂźcheur, qualitĂ©, volumĂ©trie, coĂ»ts Snowflake.

  • DĂ©finir et suivre des SLA de disponibilitĂ© et de mise Ă  jour.

  • Automatiser les alertes et dĂ©tections d’anomalies (Elementary, DataDog ou Ă©quivalents).

5. Sécurité, gouvernance et documentation

  • GĂ©rer les accĂšs Snowflake via un modĂšle RBAC clair (sĂ©paration dev/prod).

  • Participer Ă  la gouvernance data et Ă  la conformitĂ© RGPD.

  • Documenter les pipelines techniques et les process dans Confluence.

  • Contribuer Ă  la traçabilitĂ© et Ă  la classification des donnĂ©es sensibles.


⚙ Notre modern stack Data

  • Ingestion : Fivetran, pipelines Python custom

  • Transformation : Dbt Cloud

  • Warehouse : Snowflake

  • Activation / Reverse ETL : Hightouch

  • Documentation : Confluence, Dbt Docs

Profil recherché

Tu es passionné·e par la data et aimes construire des systÚmes fiables et scalables.

  • 3 Ă  5 ans d’expĂ©rience en Data Engineering (ou Ă©quivalent)

  • Solides bases en SQL et Python

  • Bonne connaissance des architectures modernes ELT

  • ExpĂ©rience sur au moins un entrepĂŽt cloud (Snowflake, BigQuery, Redshift)

  • MaĂźtrise d’un outil de transformation (Dbt) et d’un orchestrateur (Airflow ou Dagster)

  • FamiliaritĂ© avec CI/CD, tests automatisĂ©s et infrastructure as code

  • SensibilitĂ© Ă  la sĂ©curitĂ©, la qualitĂ© et la collaboration inter-Ă©quipe

Bonus :

  • Connaissance approfondie de Snowflake (optimisation, RBAC, coĂ»ts)

  • ExpĂ©rience avec Terraform, Dagster ou Airflow

  • Notions de data quality frameworks (Elementary, Great Expectations)

  • AppĂ©tence pour les sujets IA / ML

✹ Ce que l’on t’offre

  • Une stack moderne avec de vrais choix techniques Ă  faire

  • Un rĂŽle clĂ© dans la montĂ©e en maturitĂ© Data de Yomoni

  • Des collaborations directes avec le CTO et le Head of Data

  • Un environnement stimulant, exigeant et bienveillant

  • 2 sĂ©minaires par an pour renforcer les liens ✈

  • Un plan d’épargne entreprise maison et motivant

  • Une mutuelle Alan Blue (prise en charge Ă  70 %)

  • Tickets Restaurant (8 €, prise en charge Ă  60 %)

  • Des RTT pour souffler

  • 20 € remboursĂ©s sur ton forfait internet

  • Une salle de sport accessible

  • Et surtout : une Ă©quipe soudĂ©e autour d’un projet ambitieux 💙

Process de recrutement

  1. Entretien découverte avec Natacha (HR & Talent Manager) et Benjamin (Head of Data) d'environ 15 min

  2. Étude de cas / test technique avec Benjamin (60 min de prĂ©paration et 60 min de restitution)

  3. Entretien final avec Vincent (CTO) ou Sébastien (CEO)

Informations complémentaires

  • Type de contrat : CDI
  • Lieu : Paris
  • Niveau d'Ă©tudes : Bac +5 / Master
  • ExpĂ©rience : > 4 ans
  • TĂ©lĂ©travail partiel possible
  • Salaire : entre 50000€ et 60000€ / an