Expériences professionnelles
Lead Tech / Data Modeler — Banque Française Mutualiste (Bomzai)
06/2025 - Aujourd’hui- Mise en place des bonnes pratiques Snowflake
- Modélisation des données
- CI/CD Azure DevOps
- Refactorisation DBT
- Modélisation des différents Uses Cases provenant de sources diverses
Snowflake, Azure, DBT, PowerBI, Kestra, Airbyte
Data Architect — Tereos (Keyrus)
09/2024 - 04/2025- Audit plateforme en place
- Mise en place Ordonnanceur unique (Airflow)
- Nettoyage BDD Snowflake
- Application bonne pratique RBAC Snowflake
- Mise en place CI/CD (Azure Devops)
- Application bonne pratique de sécurité (Oauth) Power Bi/Power Platform
- Proposition de mise en place DBT à la place de Talend pour la transformation
- Mise en place Snowpipe pour Near Real Time
Snowflake, Talend, PowerBI, Azure, Airflow
Expertise Snowflake — Generali (Keyrus)
10/2024 - 12/2024- Audit infrastructure autour de Snowflake
- Aide au partage interne (API, Vue consolidé pour PowerBI)
- Data Quality (mise en place de bonne pratique)
Snowflake, PowerBI, Tableau, Dataiku, Mulesoft
Lead Tech DBT/Snowflake — Hermes (Solution BI)
08/2024 - 09/2024- Création script Python pour source DBT
- Mise en place structure DBT
Python, DBT, Snowflake
Data Architect — Motul (Solution BI)
06/2024 - 07/2024- Planification Architecture à mettre en place
- Mise en place infrastructure Azure Synapse / Azure Function App / Azure Devops
- Création Azure Function App
- Création Terraform
- Planification CI/CD
Azure (Blob Storage, Synapse, Function App, Devops), Terraform, Python
Data Architect / Data Engineer — Devoteam
11/2021 - 02/2024- Management de 6 consultants (Career manager)
- Formation de consultants sur la technologie Snowflake
- Accompagnement de consultants pour le passage de la certification SnowPro Core (Snowflake)
- Participation à des Avant-vente
- Lead et participation à la réalisation de démonstrations d’architecture Snowflake (Terraform/Gitlab CI/Snowflake/DBT).
- Participation au recrutement de collaborateurs (entretiens technique)
- Participation aux diverses communications en interne (Vidéos promotionnels)
Snowflake, Terraform, Python, DBT, Gitlab, Azure, AWS, Airbyte
Data Architect — Lapeyre (Devoteam)
11/2023 - 02/2024- Planification Architecture à mettre en place
- Construction Terraform
- Mise en place infrastructure Snowflake/Terraform/Gitlab/Gitlab CI/DBT
- Création Terraform mise en place squelette de BDD
- Création script DBT de mise en place des tables en fonction des fichiers disponible sur Azure Blob Storage
Azure (Blob Storage, Data Factory), Terraform, Airbyte, DBT, Gitlab
Data Engineer / Architect — Malakoff Humanis (Devoteam)
04/2023 - 07/2024- Planification Architecture à mettre en place
- Mise en place infrastructure Snowflake/Terraform/BitBucket/Jenkins/DBT
- Sécurisation de la plateforme (Private Link, Tri-secret Secure)
- Création Terraform mise en place squelette de BDD
- Création script DBT de mise en place des tables en fonction des fichiers disponible sur AWS S3
AWS (S3, DynamoBD, Simple Queue Service), Snowflake, Terraform, Airflow, Jenkins, DBT
Data Architect — Avant vente Groupe Holder (Devoteam)
06/2023- Création schéma d’architecture
- Argumentation sur les solution retenu pour l’architecture
- Présentation Architecture conseillé
Gitlab, Terraform, Snowflake, Azure (Data Factory, Blob Storage, Private endpoint), DBT, SchemaChange
Data Engineer — MVP Printemps (Devoteam)
10/2022 - 03/2023- Identification des sources de données
- Mise en place/Configuration Snowflake
- Migration Sap Hana vers Snowflake
- Mise en place pipeline de mise à jour des données
- Formation des utilisateurs de la plateforme Snowflake
- Data Quality
- Développement procédures stockées Snowflake (Javascript/SQL)
- Connexion des différentes sources de données (Azure Blob Storage, Azure Data Factory)
Gitlab CI, Terraform, Snowflake, Azure (Data Factory, Blob Storage, Private endpoint)
Data Engineer — POC Saint-Gobain (Devoteam)
10/2022- Analyse de la pipeline Oracle Data Integrator
- Identification des objets à créer
- Mise en place et configuration environnement Snowflake
- Import des données dans Snowflake via les étapes mis à disposition
- Migration du code des traitements de transformation
- Tunning : Execution Snowflake sur différents clusters, comparaisons avec les temps de traitements ODI / SAP
- Temps d'exécution divisée par 100
- Possibilité de volumétrie 100 fois supérieur à l'existant
Snowflake
Data Engineer — RCU Cora (Devoteam)
05/2022 - 07/2022- Audit / Analyse du code sur le Référentiel Client Unique
- Analyse des différents scripts Pythons
- Test de robustesse du code à l’aide de SonarQube
- Rédaction Doc de développement
- Refactorisation du code pour baisser la complexité
- Création AWS Lambda pour déplacement de fichiers d’un bucket interne à un bucket externe
- Mise en place de tests unitaires sur code non couvert
Python, AWS (Lambda, S2, EC2), Bitbucket, SonarQube
Data Engineer — Eurapharma (Devoteam)
12/2021 - 03/2022- Analyse (Audit/Cartographie) de l'infrastructure en place
- Analyse des flux entrants (fichiers CSV)
- Analyse de la BDD existante et des correspondances entre les fichiers et les tables/colonnes correspondantes
- Compréhension du flux SSIS existant pour migration
- Évaluation reprise d’historique
- Mise en place infrastructure Snowflake
- Développement de procédures stockées Snowflake (JavaScript / SQL)
- Création pipeline récupération des fichiers sur SFTP vers Blob Storage
- Ordonancement de l'ingestion des fichiers
- Historisation des fichiers ingérés
- Formation des utilisateurs
- Reprise d'historique des données
Snowflake, Github, Airbyte, Azure (Data Factory, Blob Storage, KeyVault)
Data Engineer / Developpeur — Chronopost healthcare (ST Groupe)
12/2019 - 11/2021- Intégration des données brut de télémétrie au sein de la BDD MySQL
- Analyse des différentes données
- Agrégation des données pour restitution
- Création de visualisations pour piloter les transports
- Amélioration de l’algorithme d’optimisation de tournées avec prise en charge des paramètres spécifique de températures
- Automatisation d’intégration des données de transport
- Réalisation de tests unitaires
- Mise en place de conteneur Dockers
- Mise en place Pre-commit pour obliger les développeurs à suivre les processus de développement mis en place
- Refactorisation de pages PHP anciennes
PHP5, MySQL, Gitlab, SOAP, Docker, PHPUnit, TDD (Test Driven Development)
Developpeur — Eres (ST Groupe)
07/2019 - 12/2019- Développement PHP sur framework Symfony
- Administration Serveur AWS
- Mise en place de conteneur Docker en environnement interne (GLPI, environnement Web, environnement de développement
Docker, MariaDB, Apache, PHP 7.3, Git, AWS
Developpeur / Data Engineer — DGAC
03/2019 - 06/2019- Développement PHP sur framework maison de la DGAC
- Migration de base de donnée MySQL vers PostgreSQL
- Mise en place environnement Docker
Docker, MySQL, Apache, PHP. 7.1, Git, PostgreSQL
Developpeur — Enedis (Open)
03/2018 - 03/2019- Mise en place stack technique sur Docker
- Création images Docker spécifique pour le projet
- Mise en place serveur de recette RHEL 7.5
- Mise en place CI/CD
Docker, RHEL7.5, Angular5, Symfony 3.4, MariaDB, Apache, PHP 7.1, Gitlab
Developpeur — Engie (Open)
11/2016 - 12/2017- Développement Web d’une application de ticketing gérant les demandes de création de serveurs AWS
- Ajout de fonctionnalités au sein d’une application métier propriétaire permettant la gestion de modification de titulaire d’un contrat suite au décès ou fin de colocation
- Ajout d’un module d’envoi de campagne SMS
- Modification et évolution d’un module d’envoi de pièces jointes permettant l’envoi de duplicata de factures, plan de mensualisation avec remonté automatique des documents existants pour le client
- Débogage et mise à jour modules existants.
MySQL, PHP 7, Git, CakePHP, AWS
Developpeur, Administrateur système — PSA (Open)
01/2016 - 10/2016- Développement d’un outil propriétaire permettant la récupération des données utilisateur sur une ancienne machine et la copie vers une nouvelle dans le cadre du renouvellement du parc informatique. Outil complet sur base de système d’exploitation WinPE10 permettant le décryptage BitLocker du disque, montage réseau sur la nouvelle machine et copie des données avec logo de copie incluant le nombre de fichiers copiés, le temps de copie et éventuellement les fichiers non copiés ainsi que la raison de la non copie.
WinPE10, VBScript
Developpeur, Administrateur système — Groupe Satec
11/2012 - 08/2015- Maintenance Serveur et parc informatique
- Développement d’outil spécifique de gestion du parc informatique
- Développement d’outil de gestion des demandes utilisateurs pour les services RH et Comptabilité
Windows 7, Windows server 2008, PHP, MySQL, SQL Server, GLPI, C#
Developpeur, Data Engineer — Agrege SAS
09/2010 - 07/2012- Intégration de fichiers dans la BDD (CSV, fichiers plats, XML)
- Data Quality
- Mise à disposition des données via développement PHP sur plateforme propriétaire avec remonté automatique des information lors d’appel téléphonique.
PHP 5, Oracle 10g, Debian