Felix G.

Data Engineer

Felix ist ein erfahrener Data Engineer mit sechs Jahren Berufserfahrung, der sich auf die Entwicklung und Optimierung von Datenpipelines, ETL-Prozessen und Cloud-basierten Dateninfrastrukturen spezialisiert hat.

Er beherrscht SQL, Python, Tableau und AWS und verfügt über praktische Erfahrung mit Technologien wie Apache Spark, Airflow und Airbyte. Seine AWS Cloud Practitioner-Zertifizierung unterstreicht seine Fähigkeit, skalierbare, effiziente Datenlösungen auf Cloud-Plattformen zu erstellen.

Im Laufe seiner Karriere hat Felix zur Verbesserung von Datenverarbeitungsabläufen und zur Entwicklung robuster Datenmodelle und ETL-Systeme beigetragen. Seine Arbeit hat die Geschwindigkeit und Genauigkeit der Entscheidungsfindung in verschiedenen funktionsübergreifenden Teams erheblich verbessert. Felix bringt eine ergebnisorientierte Denkweise und ein starkes technisches Fundament in jedes Projekt ein und hilft Organisationen, das volle Potenzial ihrer Daten zu erschließen.

Hauptkompetenz

  • Git
    Git 4 Jahre
  • Azure Data Factory
    Azure Data Factory 2 Jahre
  • BigQuery
    BigQuery 3 Jahre

Andere Fähigkeiten

  • Hadoop
    Hadoop 3 Jahre
  • Apache Kafka
    Apache Kafka 2 Jahre
  • Apache Airflow
    Apache Airflow 2 Jahre
Felix

Felix G.

Uruguay

Erste Schritte

Ausgewählte Erfahrung

Beschäftigung

  • Freelancer

    Upwork - 2 jahre 9 monate

    • Building and optimizing data pipelines for diverse clients. Skilled in Python, SQL, and AWS for data processing and storage.

    • Designing Cloud Infrastructure on data warehouse projects.

    • Delivered a real-time data analytics platform for an e-commerce client, enabling faster decision-making based on customer behavior

    Achievements: He worked and implemented cloud-based data solutions for several clients as a freelance. Lastly, he has worked on setting a real-time process based in Kafka for the customer platform, improving the performance of the whole ETL process. He used GitHub Actions in some cases to execute standalone data pipelines.

    Technologien:

    • Technologien:
    • Databricks Databricks
    • Python Python
    • Apache Kafka Apache Kafka
    • SQL SQL
    • Azure Data Factory Azure Data Factory
    • Matlab Matlab
    • Pandas Pandas
    • Data Engineering
    • AWS Athena AWS Athena
    • BigQuery BigQuery
    • Git Git
    • Data Analytics
    • Snowflake Snowflake
    • Data Modeling
    • ETL ETL
    • Hadoop Hadoop
    • Dagster Dagster
    • dbt dbt
    • Talend Talend
    • AWS Glue AWS Glue
    • Collibra Collibra
  • Data Engineer

    Ballast Lane Applications - 1 jahr 8 monate

    • Build, test, and maintain database and ETL pipeline architectures.

    • Collaborate with management to understand how data is connected.

    • Create new data validation methods and data analysis tools.

    • Ensure compliance with data governance and security policies.

    • Develop algorithms to transform data into useful, actionable information.

    Achievements: Improvement of manual processes by implementing data integration tools within the data pipelines of the project. This made faster data ingestión for the ETL process.

    Technologien:

    • Technologien:
    • MongoDB MongoDB
    • AWS AWS
    • Databricks Databricks
    • Apache Spark Apache Spark
    • Python Python
    • SQL SQL
    • Pandas Pandas
    • Data Engineering
    • BigQuery BigQuery
    • Git Git
    • Apache Airflow Apache Airflow
    • Data Analytics
    • ETL ETL
    • Tableau Tableau
    • Hadoop Hadoop
    • Talend Talend
    • Collibra Collibra
  • Data Analyst

    Switch Software Solutions - 9 monate

    • Analyze the data pipelines and perform data queries on data stored in diverse data warehouses (SQL Server, MySQL).

    • Validate rules for bringing data over, update the data model to reflect any changes, perform reconciliation analysis, and update mapping tables.

    • Create data visualization using Tableau, Qliksense, and open-source libraries.

    Achievements: Collaborated with developers and stakeholders by helping them to shape data models for database migration,

    • Improved data visualization process for business users.

    Technologien:

    • Technologien:
    • MySQL MySQL
    • Qlik Sense Qlik Sense
    • Python Python
    • Azure Data Factory Azure Data Factory
    • Git Git
    • Data Analytics
    • Data Modeling
    • Tableau Tableau
  • Senior BI Developer

    Sabre Corporation - 1 jahr 9 monate

    • Translate the customer, business and market needs into product requirements.

    • Coordinate with 3rd party companies to deliver on requirements.

    • Understand and identify opportunities to improve and manage data through BI tools like QlikView, QlikSense, Cognos, Alteryx, PowerBI.

    Achievements:

    • Successfully Implemented QlikView dashboards and collaborated with the Analytics unit to migrate existing Tableaau and Alteryx ETL processes into QlikView.

    Technologien:

    • Technologien:
    • Qlik View Qlik View
    • Qlik Sense Qlik Sense
    • T-SQL T-SQL
    • Microsoft Power BI Microsoft Power BI
    • Data Analytics
    • Tableau Tableau
    • Cognos
    • Talend Talend
    • IBM Cognos Analytics IBM Cognos Analytics
  • IT Consultant / BI Developer

    The Hackett Group - 3 jahre 11 monate

    • Execution of application support for application development activities and maintenance for Oracle EPM products.

    • Manage and deliver data to relevant departments within the organization

    • Design, develop, and maintain OBIEE dashboards.

    Achievements:

    • Acquired a lot of experience and working knowledge that has been the foundation until this time

    Technologien:

    • Technologien:
    • SQL SQL
    • Oracle Analytics Cloud
    • Oracle Data Integrator

Ausbildung

  • BSc.Finance

    Universidad Simon Rodriguez · 2000 - 2006

Portfolio

  • Airflow Movie retriever - 1
  • ETL pipeline using Airbyte Mother Duck connector - 1
  • Medium Notebooks - 1
  • Medium Notebooks - 2

Finden Sie Ihren nächsten Entwickler innerhalb von Tagen, nicht Monaten

In einem kurzen 25-minütigen Gespräch würden wir gerne:

  • Auf Ihren Bedarf bezüglich des Recruitments von Software-Entwicklern eingehen
  • Unseren Prozess vorstellen und somit wie wir Sie mit talentierten und geprüften Kandidaten aus unserem Netzwerk zusammenbringen können
  • Die nächsten Schritte besprechen, um den richtigen Kandidaten zu finden - oft in weniger als einer Woche

Unterhalten wir uns