Felix G.

Data Engineer

Felix est un ingénieur de données compétent avec six ans d'expérience commerciale, spécialisé dans la conception et l'optimisation des pipelines de données, des processus ETL et des infrastructures de données basées sur le cloud.

Il maîtrise SQL, Python, Tableau et AWS, avec une expérience pratique dans des technologies telles que Apache Spark, Airflow et Airbyte. Sa certification AWS Cloud Practitioner souligne sa capacité à élaborer des solutions de données évolutives et efficaces sur des plateformes en nuage.

Tout au long de sa carrière, Felix a contribué à l'amélioration des flux de traitement des données et à la conception de modèles de données et de systèmes ETL robustes. Son travail a permis d'améliorer considérablement la rapidité et la précision de la prise de décision au sein de diverses équipes interfonctionnelles. Felix apporte un état d'esprit axé sur les résultats et une base technique solide à chaque projet, aidant les organisations à libérer le plein potentiel de leurs données.

Principale expertise

  • Git
    Git 4 ans
  • Azure Data Factory
    Azure Data Factory 2 ans
  • BigQuery
    BigQuery 3 ans

Autres compétences

  • Hadoop
    Hadoop 3 ans
  • Apache Kafka
    Apache Kafka 2 ans
  • Apache Airflow
    Apache Airflow 2 ans
Felix

Felix G.

Uruguay

Commencer

Expérience sélectionnée

Emploi

  • Freelancer

    Upwork - 2 années 9 mois

    • Building and optimizing data pipelines for diverse clients. Skilled in Python, SQL, and AWS for data processing and storage.

    • Designing Cloud Infrastructure on data warehouse projects.

    • Delivered a real-time data analytics platform for an e-commerce client, enabling faster decision-making based on customer behavior

    Achievements: He worked and implemented cloud-based data solutions for several clients as a freelance. Lastly, he has worked on setting a real-time process based in Kafka for the customer platform, improving the performance of the whole ETL process. He used GitHub Actions in some cases to execute standalone data pipelines.

    Les technologies:

    • Les technologies:
    • Databricks Databricks
    • Python Python
    • Apache Kafka Apache Kafka
    • SQL SQL
    • Azure Data Factory Azure Data Factory
    • Matlab Matlab
    • Pandas Pandas
    • Data Engineering
    • AWS Athena AWS Athena
    • BigQuery BigQuery
    • Git Git
    • Data Analytics
    • Snowflake Snowflake
    • Data Modeling
    • ETL ETL
    • Hadoop Hadoop
    • Dagster Dagster
    • dbt dbt
    • Talend Talend
    • AWS Glue AWS Glue
    • Collibra Collibra
  • Data Engineer

    Ballast Lane Applications - 1 an 8 mois

    • Build, test, and maintain database and ETL pipeline architectures.

    • Collaborate with management to understand how data is connected.

    • Create new data validation methods and data analysis tools.

    • Ensure compliance with data governance and security policies.

    • Develop algorithms to transform data into useful, actionable information.

    Achievements: Improvement of manual processes by implementing data integration tools within the data pipelines of the project. This made faster data ingestión for the ETL process.

    Les technologies:

    • Les technologies:
    • MongoDB MongoDB
    • AWS AWS
    • Databricks Databricks
    • Apache Spark Apache Spark
    • Python Python
    • SQL SQL
    • Pandas Pandas
    • Data Engineering
    • BigQuery BigQuery
    • Git Git
    • Apache Airflow Apache Airflow
    • Data Analytics
    • ETL ETL
    • Tableau Tableau
    • Hadoop Hadoop
    • Talend Talend
    • Collibra Collibra
  • Data Analyst

    Switch Software Solutions - 9 mois

    • Analyze the data pipelines and perform data queries on data stored in diverse data warehouses (SQL Server, MySQL).

    • Validate rules for bringing data over, update the data model to reflect any changes, perform reconciliation analysis, and update mapping tables.

    • Create data visualization using Tableau, Qliksense, and open-source libraries.

    Achievements: Collaborated with developers and stakeholders by helping them to shape data models for database migration,

    • Improved data visualization process for business users.

    Les technologies:

    • Les technologies:
    • MySQL MySQL
    • Qlik Sense Qlik Sense
    • Python Python
    • Azure Data Factory Azure Data Factory
    • Git Git
    • Data Analytics
    • Data Modeling
    • Tableau Tableau
  • Senior BI Developer

    Sabre Corporation - 1 an 9 mois

    • Translate the customer, business and market needs into product requirements.

    • Coordinate with 3rd party companies to deliver on requirements.

    • Understand and identify opportunities to improve and manage data through BI tools like QlikView, QlikSense, Cognos, Alteryx, PowerBI.

    Achievements:

    • Successfully Implemented QlikView dashboards and collaborated with the Analytics unit to migrate existing Tableaau and Alteryx ETL processes into QlikView.

    Les technologies:

    • Les technologies:
    • Qlik View Qlik View
    • Qlik Sense Qlik Sense
    • T-SQL T-SQL
    • Microsoft Power BI Microsoft Power BI
    • Data Analytics
    • Tableau Tableau
    • Cognos
    • Talend Talend
    • IBM Cognos Analytics IBM Cognos Analytics
  • IT Consultant / BI Developer

    The Hackett Group - 3 années 11 mois

    • Execution of application support for application development activities and maintenance for Oracle EPM products.

    • Manage and deliver data to relevant departments within the organization

    • Design, develop, and maintain OBIEE dashboards.

    Achievements:

    • Acquired a lot of experience and working knowledge that has been the foundation until this time

    Les technologies:

    • Les technologies:
    • SQL SQL
    • Oracle Analytics Cloud
    • Oracle Data Integrator

Éducation

  • License ès sciencesFinance

    Universidad Simon Rodriguez · 2000 - 2006

Portefeuille

  • Airflow Movie retriever - 1
  • ETL pipeline using Airbyte Mother Duck connector - 1
  • Medium Notebooks - 1
  • Medium Notebooks - 2

Trouvez votre prochain développeur en quelques jours et non sur plusieurs mois

Dans un court appel de 25 minutes, nous voulons:

  • Comprendre vos besoins en développement
  • Vous expliquez comment nous allons vous mettre en relation avec le développeur le mieux qualifié pour votre projet, sélectionné avec soin
  • Vous indiquez nos prochaines démarches afin de vous trouver le meilleur développeur, souvent en moins d'une semaine

Contactez-nous