Tech Lead Data H/F
Groupe Crédit Agricole
Job description
L’Entreprise CAL&F et la Direction des Systèmes d’Information et de la Digitalisation (DSID)
🚀 Au sein de CAL&F, vous rejoindrez les 130 collaborateurs passionnés de la DSID qui travaillent ensemble à un plan de transformation de l’IT pour digitaliser notre organisation et les services que nous offrons. Dès 3 ans, nous offrons des opportunités de mobilité, au sein de la DSID ou du groupe Crédit Agricole.
🌟 Nous croyons en la force du collectif, chaque jour rassemblés autour de nos valeurs, de simplicité, d'optimisme et d'engagement, encourageant chacun à oser, essayer, accepter d'échouer et rebondir.
🎯 Si vous aussi vous souhaitez évoluer dans un environnement stimulant et bienveillant, vous sentir utile au quotidien, renforcer votre expertise et ouvrir le champ des possibles, nous sommes faits pour nous rencontrer !
🎯 Afin d’accompagner et de contribuer à la réalisation des ambitions de développement de Crédit Agricole Leasing et Factoring (CAL&F) et de modernisation de nos systèmes d’information au service des clients et du Groupe Crédit Agricole, la Direction des Systèmes d’Information et de la Digitalisation (DSID) recherche un(e) Tech Lead Data.
Le Data Tech Lead est le référent technique de la Data Factory.
Il conçoit, industrialise et optimise les solutions data de l’entreprise, encadre techniquement les data engineers et garantit la qualité, la performance et la maintenabilité des produits livrés.
Il joue un rôle clé dans la transformation data, notamment dans le cadre de la migration des usages historiques (SAS, traitements batch) vers des solutions cloud et modernes.
🚀 Vos missions principales sont les suivantes :
1.Pilotage technique
· Définir et faire respecter les bonnes pratiques de développement, de versioning et d’industrialisation des flux data.
· Réaliser les revues de code, assurer la cohérence et la robustesse technique des traitements.
· Participer à la conception des architectures cibles en lien avec les architectes data et les équipes DSI.
· Contribuer à l’amélioration continue des performances et de la stabilité des pipelines.
2. Conception et industrialisation
· Concevoir, développer et maintenir des pipelines de collecte, de transformation et de diffusion des données (ETL/ELT).
· Mettre en œuvre les solutions d’orchestration et d’automatisation .
· Participer à la migration des flux SAS vers des solutions cloud modernes (ex. Snowflake).
· Veiller à la documentation, à la supervision et au monitoring des traitements.
3. Encadrement et accompagnement
· Accompagner techniquement les data engineers dans leurs développements et leur montée en compétence.
· Promouvoir les bonnes pratiques DataOps (CI/CD, tests, observabilité, monitoring).
· Faciliter les échanges entre les équipes Data, Architecture, Sécurité et Métier.