NEW
Proxify is bringing transparency to tech team performance based on research conducted at Stanford. An industry first, built for engineering leaders.
Learn more
Fabio C.
Data Engineer
Fabio est un ingénieur de données chevronné avec plus de sept ans d'expérience dans la fourniture de solutions de données évolutives et performantes dans les secteurs de la fintech, de l'edtech, de la proptech et du q-commerce. Connu pour son esprit analytique et son approche pragmatique, il a mené des initiatives stratégiques dans le domaine de l'ingestion de données, de l'optimisation des coûts et de l'infrastructure en tant que code.
Chez Intergiro, Fabio a conçu et développé de manière indépendante la plateforme de données de l'entreprise. Il a notamment mis en place des contrôles d'accès sécurisés basés sur les rôles, des pipelines d'évolution des schémas et une automatisation CI/CD, créant ainsi une base robuste et maintenable pour les opérations de données.
Fabio est très compétent avec les outils de données modernes tels que Snowflake, Airflow, dbt, et Terraform, et apporte une expertise approfondie en SQL et Python. Il s'épanouit dans des environnements où l'on travaille d'abord à distance, accorde de l'importance à une documentation claire et encourage activement le mentorat et le partage des connaissances au sein des équipes techniques.
Sa capacité à combiner des compétences techniques approfondies avec une communication claire fait de lui un contributeur important pour les organisations axées sur les données qui recherchent une valeur à long terme et la résilience du système.
Principale expertise
- Python 4 ans

- SQL 8 ans

- MySQL 3 ans
Autres compétences
- Apache Airflow 3 ans

- Terraform 3 ans

- Redshift 3 ans

Expérience sélectionnée
Emploi
Senior Data Engineer
seQura - 5 mois
seQura is a leading fintech company with operations across Europe and the Americas, empowering merchants and consumers with flexible payment solutions that promote responsible spending and transparency. Its platform serves millions of users and thousands of merchants. Although I just joined, in less than two months I have already:
- Contributed to both team and company repositories, improving shared tooling and workflows.
- Led the integration of AI assistants within the Data team, designing and documenting a complete setup that accelerates development and debugging workflows through customized LLM-based tooling and dbt MCP server integration.
- Directed the design and cross-team alignment of the data anonymization project to ensure regulatory compliance and facilitate secure data sharing.
Les technologies:
- Les technologies:
AWS
Python
SQL
AWS S3
Terraform
Apache Airflow
Redshift
dbt
GitHub Actions
Data Engineer
Intergiro - 2 années 1 mois
- Il a été le seul ingénieur en données, gérant l'ensemble du cycle de vie des données, depuis l'ingestion et la transformation jusqu'à l'assurance qualité et le contrôle d'accès.
- Refonte du principal pipeline d'ingestion pour les bases de données transactionnelles, améliorant les performances, la fraîcheur des données et l'automatisation de l'évolution des schémas.
- Mise en œuvre du modèle Write-Audit-Publish (WAP) afin d'améliorer la qualité des données et de minimiser les risques liés à la publication.
- Sécurité accrue grâce à l'intégration de Google SSO, au remaniement des rôles Snowflake et à l'application de règles de masquage via les balises Snowflake.
- Mise en place de l'infrastructure en tant que code à l'aide de Terraform et rationalisation des déploiements grâce aux actions GitHub.
- Introduction et configuration de Grafana pour surveiller les opérations sur les données et améliorer les mécanismes d'alerte.
- Réduction des coûts de calcul de Snowflake de 23 % en un an grâce à l'optimisation des performances et des ressources.
- Développement d'intégrations Python personnalisées avec des API tierces pour répondre à divers besoins d'ingestion et d'enrichissement de données.
- Soutien aux analystes de données par la mise en place et la maintenance de projets dbt, permettant des flux de travail de transformation efficaces.
Les technologies:
- Les technologies:
Python
SQL
Google Cloud
Grafana
Terraform
Apache Airflow
Snowflake
dbt
Metabase
GitHub Actions
Data Engineer
Brainly - 11 mois
- Il a dirigé le développement de pipelines de données dans le domaine de l'argent, prenant en charge les abonnements, les publicités et la planification financière.
- Conception de systèmes de prévision et mise en œuvre d'une démonstration de faisabilité (POC) pour Snowpark afin de générer des informations financières basées sur la ML.
- Création et maintenance de modèles et de processus CI/CD pour Snowflake, améliorant la rapidité et la fiabilité de la livraison des pipelines.
Les technologies:
- Les technologies:
AWS
Python
SQL
AWS S3
Terraform
Snowflake
Redshift
AWS Glue
Data Engineer
Glovo - 9 mois
- Création de pipelines pour les départements Contact et LiveOps, gérant plus de 800 000 interactions par jour.
- Intégration d'API externes, notamment Kustomer, Shelf et Talkdesk.
- Développement de produits de données au sein d'une architecture Data Mesh, permettant la migration des pipelines Python/dbt existants.
- Il a dirigé la refonte de l'intégration de Kustomer CRM, en réduisant la complexité et en alignant la conception du pipeline sur les métadonnées et les normes de qualité pour soutenir la propriété du domaine.
Les technologies:
- Les technologies:
AWS
Apache Spark
Python
SQL
AWS S3
Apache Airflow
Redshift
dbt
Analytics & Data Engineer
idealista - 4 années 1 mois
- Création et maintenance de plus de 200 tâches ETL à l'aide de Pentaho et Flink pour soutenir les équipes interfonctionnelles.
- Amélioration des systèmes de rapports internes et contribution à l'élaboration de solutions de rapports, de marges de données et de tableaux de bord.
- Intégration de la base de données clients de Casa.it pendant les processus de diligence raisonnable et d'intégration des fusions et acquisitions.
- Il a dirigé les efforts de l'équipe dans la mise en œuvre de tests de qualité pour les ETL et a organisé des sessions de formation interne sur le langage SQL.
Les technologies:
- Les technologies:
ElasticSearch
Java
Jenkins
SQL
Ansible
Apache Flink
Pentaho
Advanced Technical Support Team Leader
idealista - 2 années 9 mois
idealista is the leading real estate portal in Southern Europe.
-
Managed a team of five support engineers.
-
Conducted integration tests with external systems for the import/export of properties ads
-
Served as the primary liaison between development teams and client support
-
Coordinated daily with development teams to prioritize and ensure the resolution of bugs and main issues in in-house applications.
-
Conducted data research and analysis to address critical issues.
-
Provided mentorship to first-level agents.
Les technologies:
- Les technologies:
SQL
Oracle
Jira
JSON
XML
- Team Leading
-
IT Support Technician
idealista - 3 années
idealista is the leading real estate portal in Southern Europe.
-
Delivered first and second-level support for users across Spain, Italy, and Portugal.
-
Triaged incidents and collaborated closely with the development teams to resolve bugs in in-house applications and production systems.
Les technologies:
- Les technologies:
SQL
Oracle
Jira
-
Éducation
Maîtrise ès sciencesInternational Relations
Universidad de Alcalá · 2009 - 2010
License ès sciencesInternational Relations
Università degli Studi di Perugia, Italy · 2005 - 2008
Trouvez votre prochain développeur en quelques jours et non sur plusieurs mois
Dans un court appel de 25 minutes, nous voulons:
- Comprendre vos besoins en développement
- Vous expliquez comment nous allons vous mettre en relation avec le développeur le mieux qualifié pour votre projet, sélectionné avec soin
- Vous indiquez nos prochaines démarches afin de vous trouver le meilleur développeur, souvent en moins d'une semaine
