Fabio C.

Data Engineer

Fabio ist ein erfahrener Dateningenieur mit mehr als sieben Jahren Erfahrung in der Bereitstellung skalierbarer, hochleistungsfähiger Datenlösungen in den Bereichen Fintech, Edtech, Proptech und Q-Commerce. Er ist bekannt für seine analytische Denkweise und seinen pragmatischen Ansatz und hat strategische Initiativen in den Bereichen Datenerfassung, Kostenoptimierung und Infrastruktur als Code geleitet.

Bei Intergiro hat Fabio die Datenplattform des Unternehmens von Grund auf eigenständig entwickelt und skaliert. Seine Arbeit umfasste die Implementierung sicherer rollenbasierter Zugriffskontrollen, Schemaentwicklungspipelines und CI/CD-Automatisierung, wodurch eine robuste und wartbare Grundlage für den Datenbetrieb geschaffen wurde.

Fabio ist sehr versiert im Umgang mit modernen Datentools wie Snowflake, Airflow, dbt und Terraform und bringt fundierte Kenntnisse in SQL und Python mit. Er fühlt sich in Remote-First-Umgebungen wohl, legt Wert auf eine klare Dokumentation und fördert aktiv die Mentorenschaft und den Wissensaustausch innerhalb technischer Teams.

Seine Fähigkeit, tiefgreifende technische Fähigkeiten mit klarer Kommunikation zu kombinieren, macht ihn zu einem starken Mitarbeiter für datengesteuerte Organisationen, die einen langfristigen Wert und Systemstabilität anstreben.

Hauptkompetenz

  • Python
    Python 4 Jahre
  • SQL
    SQL 8 Jahre
  • MySQL
    MySQL 3 Jahre

Andere Fähigkeiten

  • Apache Airflow
    Apache Airflow 3 Jahre
  • Terraform
    Terraform 3 Jahre
  • Redshift
    Redshift 3 Jahre
Fabio

Fabio C.

Spain

Erste Schritte

Ausgewählte Erfahrung

Beschäftigung

  • Senior Data Engineer

    seQura - 5 monate

    seQura is a leading fintech company with operations across Europe and the Americas, empowering merchants and consumers with flexible payment solutions that promote responsible spending and transparency. Its platform serves millions of users and thousands of merchants. Although I just joined, in less than two months I have already:

    • Contributed to both team and company repositories, improving shared tooling and workflows.
    • Led the integration of AI assistants within the Data team, designing and documenting a complete setup that accelerates development and debugging workflows through customized LLM-based tooling and dbt MCP server integration.
    • Directed the design and cross-team alignment of the data anonymization project to ensure regulatory compliance and facilitate secure data sharing.

    Technologien:

    • Technologien:
    • AWS AWS
    • Python Python
    • SQL SQL
    • AWS S3 AWS S3
    • Terraform Terraform
    • Apache Airflow Apache Airflow
    • Redshift Redshift
    • dbt dbt
    • GitHub Actions GitHub Actions
  • Data Engineer

    Intergiro - 2 jahre 1 monat

    • Als alleiniger Data Engineer verwaltete er den gesamten Lebenszyklus der Daten, von der Aufnahme und Umwandlung bis zur Qualitätssicherung und Zugriffskontrolle.
    • Überarbeitung der Hauptingestionspipeline für Transaktionsdatenbanken, Verbesserung der Leistung, Verbesserung der Datenaktualität und Automatisierung der Schemaentwicklung.
    • Implementierung des Write-Audit-Publish (WAP)-Musters zur Verbesserung der Datenqualität und Minimierung der mit der Veröffentlichung verbundenen Risiken.
    • Erhöhte Sicherheit durch Integration von Google SSO, Überarbeitung von Snowflake-Rollen und Anwendung von Maskierungsrichtlinien über Snowflake-Tags.
    • Aufbau von Infrastructure as Code mit Terraform und optimierte Bereitstellung durch GitHub Actions.
    • Einführung und Konfiguration von Grafana zur Überwachung von Datenoperationen und Verbesserung von Warnmechanismen.
    • Senkung der Snowflake-Rechenkosten um 23 % innerhalb eines Jahres durch Leistungsoptimierung und Ressourcenoptimierung.
    • Entwicklung von benutzerdefinierten Python-Integrationen mit APIs von Drittanbietern, um verschiedene Anforderungen an die Datenaufnahme und -anreicherung zu erfüllen.
    • Unterstützung von Datenanalysten durch Einrichtung und Pflege von dbt-Projekten, um effiziente Transformationsabläufe zu ermöglichen.

    Technologien:

    • Technologien:
    • Python Python
    • SQL SQL
    • Google Cloud Google Cloud
    • Grafana Grafana
    • Terraform Terraform
    • Apache Airflow Apache Airflow
    • Snowflake Snowflake
    • dbt dbt
    • Metabase Metabase
    • GitHub Actions GitHub Actions
  • Data Engineer

    Brainly - 11 monate

    • Leitete die Entwicklung von Datenpipelines im Bereich Geld, die Abonnements, Anzeigen und Finanzplanung unterstützen.
    • Entwicklung von Prognosesystemen und Implementierung eines Snowpark-Proof-of-Concept (POC) zur Generierung ML-gesteuerter finanzieller Erkenntnisse.
    • Erstellung und Pflege von Vorlagen und CI/CD-Prozessen für Snowflake zur Verbesserung der Geschwindigkeit und Zuverlässigkeit der Pipeline-Bereitstellung.

    Technologien:

    • Technologien:
    • AWS AWS
    • Python Python
    • SQL SQL
    • AWS S3 AWS S3
    • Terraform Terraform
    • Snowflake Snowflake
    • Redshift Redshift
    • AWS Glue AWS Glue
  • Data Engineer

    Glovo - 9 monate

    • Aufbau von Pipelines für die Kontakt- und LiveOps-Abteilungen, die täglich über 800.000 Interaktionen verarbeiten.
    • Integrierte externe APIs, einschließlich Kustomer, Shelf und Talkdesk.
    • Entwicklung von Datenprodukten innerhalb einer Data-Mesh-Architektur, die die Migration von alten Python/Dbt-Pipelines ermöglicht.
    • Er leitete das Refactoring der Kustomer-CRM-Integration, reduzierte die Komplexität und richtete das Pipeline-Design an Metadaten und Qualitätsstandards aus, um die Domain Ownership zu unterstützen.

    Technologien:

    • Technologien:
    • AWS AWS
    • Apache Spark Apache Spark
    • Python Python
    • SQL SQL
    • AWS S3 AWS S3
    • Apache Airflow Apache Airflow
    • Redshift Redshift
    • dbt dbt
  • Analytics & Data Engineer

    idealista - 4 jahre 1 monat

    • Erstellung und Pflege von über 200 ETL-Jobs mit Pentaho und Flink zur Unterstützung funktionsübergreifender Teams.
    • Verbesserte interne Berichtssysteme und trug zur Entwicklung von Berichtslösungen, Data Marts und Dashboards bei.
    • Integration der Casa.it-Kundendatenbank während der M&A-Due-Diligence- und Onboarding-Prozesse.
    • Er leitete die Bemühungen des Teams bei der Implementierung von Qualitätstests für ETLs und führte interne SQL-Schulungen durch.

    Technologien:

    • Technologien:
    • ElasticSearch ElasticSearch
    • Java Java
    • Jenkins Jenkins
    • SQL SQL
    • Ansible Ansible
    • Apache Flink Apache Flink
    • Pentaho Pentaho
  • Advanced Technical Support Team Leader

    idealista - 2 jahre 9 monate

    idealista is the leading real estate portal in Southern Europe.

    • Managed a team of five support engineers.

    • Conducted integration tests with external systems for the import/export of properties ads

    • Served as the primary liaison between development teams and client support

    • Coordinated daily with development teams to prioritize and ensure the resolution of bugs and main issues in in-house applications.

    • Conducted data research and analysis to address critical issues.

    • Provided mentorship to first-level agents.

    Technologien:

    • Technologien:
    • SQL SQL
    • Oracle Oracle
    • Jira Jira
    • JSON JSON
    • XML XML
    • Team Leading
  • IT Support Technician

    idealista - 3 jahre

    idealista is the leading real estate portal in Southern Europe.

    • Delivered first and second-level support for users across Spain, Italy, and Portugal.

    • Triaged incidents and collaborated closely with the development teams to resolve bugs in in-house applications and production systems.

    Technologien:

    • Technologien:
    • SQL SQL
    • Oracle Oracle
    • Jira Jira

Ausbildung

  • MSc.International Relations

    Universidad de Alcalá · 2009 - 2010

  • BSc.International Relations

    Università degli Studi di Perugia, Italy · 2005 - 2008

Finden Sie Ihren nächsten Entwickler innerhalb von Tagen, nicht Monaten

In einem kurzen 25-minütigen Gespräch würden wir gerne:

  • Auf Ihren Bedarf bezüglich des Recruitments von Software-Entwicklern eingehen
  • Unseren Prozess vorstellen und somit wie wir Sie mit talentierten und geprüften Kandidaten aus unserem Netzwerk zusammenbringen können
  • Die nächsten Schritte besprechen, um den richtigen Kandidaten zu finden - oft in weniger als einer Woche

Unterhalten wir uns