Antoine Gélin

Bonjour, je suis

Antoine Gélin


Data Engineer avec 5 ans d'expérience — pipelines d'ingestion, entrepôts de données, couches BI. Background Java/Spark sur de gros volumes, aujourd'hui centré sur la Modern Data Stack (dbt, Redshift, AWS).

/ Expertise

Les domaines dans lesquels j'interviens

Pipelines de données

Conception et mise en production de pipelines d'ingestion et de transformation. Approche ELT moderne avec orchestration, tests et monitoring intégrés.

Python Spark dbt SQL

Architecture data warehouse

Modélisation et structuration d'entrepôts de données optimisés pour l'analytique : schémas en étoile, couches staging/mart, conventions de nommage.

Redshift BigQuery dbt PostgreSQL

Infrastructure cloud

Déploiement et gestion d'infrastructures data sur AWS et GCP : stockage, compute, orchestration, le tout versionné et reproductible.

AWS GCP Terraform Docker CI/CD

BI & visualisation

Mise en place de couches BI en libre-service : dashboards métier, KPIs automatisés, accès autonome aux données pour les équipes non techniques.

QuickSight SQL dbt metrics

Qualité & observabilité

Intégration de tests de données, alertes et monitoring dans les pipelines pour garantir la fiabilité et détecter les anomalies avant qu'elles n'impactent les usages.

dbt tests Alerting Data contracts

Accompagnement & documentation

Transmission de connaissances, documentation technique, formation des équipes métier ou tech pour assurer l'autonomie sur les outils data.

Documentation Formation Handover

/ Projets

Une sélection de projets professionnels et expérimentaux.

Velib Data Platform screenshot 1
Projet personnel

Velib Data Platform

Plateforme ELT serverless sur Google Cloud pour les données Vélib' Métropole : ingestion haute fréquence (~200M observations/an), stockage colonnaire BigQuery, transformations analytiques dbt, infrastructure versionnée Terraform.

Python dbt BigQuery Terraform Cloud Run Docker
Modern Data Stack — Fintech screenshot 1
Mission

Modern Data Stack — Fintech

Des équipes métier autonomes sur leurs données, un time-to-insight divisé, et une plateforme que l'équipe suivante peut reprendre sans accompagnement.

Python dbt Redshift S3 QuickSight Fargate
Pipelines critiques — Banque screenshot 1
Mission

Pipelines critiques — Banque

Des traitements stables sur de gros volumes, moins d'incidents en production, et des pratiques d'ingénierie qui tiennent dans la durée.

Java Spark Hive SQL Server Jenkins

/ Stack Technique

Compétences techniques par domaine et niveau de maîtrise

Expert
Confirmé
Débutant

Data Engineering

dbt
Apache Spark
Hadoop/Hive

Bases de données

BigQuery
Redshift
PostgreSQL
SQL Server

Cloud & DevOps

AWS
GCP
S3
GCS
Docker
Terraform
Git
Linux
Jenkins

Langages

Python
Java
SQL
Bash

/ Contact

N'hésitez pas à me contacter pour discuter de nouveaux projets.