đ Rejoins une fintech qui construit la Data de demain
đ Pourquoi ce poste ?
Chez Yomoni, on veut rendre lâĂ©pargne simple, transparente et accessible Ă tous.
Notre mission : permettre à chaque épargnant de faire grandir son argent avec confiance.
Pour y parvenir, la donnĂ©e est au cĆur de tout :
elle éclaire nos décisions stratégiques, alimente nos produits et soutient nos projets IA.
Nous venons de poser les bases dâune modern data stack (Snowflake, DBT, Fivetran, Hightouch) et cherchons aujourdâhui un(e) Data Engineer pour renforcer son architecture, fiabiliser ses pipelines et construire une infrastructure solide et scalable.
đ Si tu veux construire plutĂŽt que maintenir, et laisser ton empreinte dans une fintech en pleine croissance, ce poste est fait pour toi.
Tu rejoindras une équipe Data en expansion (Head of Data + Data Analyst confirmé),
au cĆur des enjeux produit, mĂ©tier et technologiques.
Ton rĂŽle : garantir la robustesse, la scalabilitĂ© et la qualitĂ© de lâinfrastructure data.
đŻ Tes missions :
1. Construire et maintenir des pipelines d'ingestion
DĂ©velopper des pipelines dâingestion hors connecteurs (APIs internes, fichiers SFTP, bases propriĂ©taires, etc.).
Superviser et maintenir les flux existants (Fivetran et futurs outils).
GĂ©rer lâorchestration (Dbt, Fivetran), lâhistorisation et la qualitĂ© des donnĂ©es.
Mettre en place du monitoring technique et des tests dâintĂ©gritĂ© automatisĂ©s.
2. Industrialiser l'usinde de transformation (Dbt)
Mettre en place et maintenir un CI/CD pour Dbt (Pull Request, tests automatiques, déploiement).
Intégrer des tests de cohérence et de fraßcheur.
Surveiller les jobs (logs, scheduler, notifications).
Collaborer avec le Head of Data et le Data Analyst pour fiabiliser les modÚles métiers.
3. Distribuer la donnée vers les outils métiers
Garantir que la donnĂ©e transformĂ©e arrive lĂ oĂč elle est utile : CRM, support, marketing, financeâŠ
Ătendre les cas dâusage non couverts par Hightouch (API custom, exports automatisĂ©s).
Sâassurer de la fraĂźcheur, de la cohĂ©rence et de la traçabilitĂ© des donnĂ©es distribuĂ©es.
4. Monitoring, performance & data reliability
Mettre en place un monitoring global de la stack : fraßcheur, qualité, volumétrie, coûts Snowflake.
Définir et suivre des SLA de disponibilité et de mise à jour.
Automatiser les alertes et dĂ©tections dâanomalies (Elementary, DataDog ou Ă©quivalents).
5. Sécurité, gouvernance et documentation
Gérer les accÚs Snowflake via un modÚle RBAC clair (séparation dev/prod).
Participer à la gouvernance data et à la conformité RGPD.
Documenter les pipelines techniques et les process dans Confluence.
Contribuer à la traçabilité et à la classification des données sensibles.
âïž Notre modern stack Data
Ingestion : Fivetran, pipelines Python custom
Transformation : Dbt Cloud
Warehouse : Snowflake
Activation / Reverse ETL : Hightouch
Documentation : Confluence, Dbt Docs