Felix G.

Data Engineer

Felix on ammattitaitoinen data-insinööri, jolla on kuuden vuoden kaupallinen kokemus ja joka on erikoistunut dataputkien, ETL-prosessien ja pilvipohjaisten datainfrastruktuurien suunnitteluun ja optimointiin.

Hän hallitsee SQL:n, Pythonin, Tableaun ja AWS:n, ja hänellä on käytännön kokemusta teknologioista, kuten Apache Spark, Airflow ja Airbyte. Hänen AWS Cloud Practitioner -sertifikaattinsa korostaa hänen kykyään rakentaa skaalautuvia ja tehokkaita dataratkaisuja pilvialustoille.

Felix on koko uransa ajan osallistunut tietojenkäsittelyn työnkulkujen parantamiseen sekä vankkojen tietomallien ja ETL-järjestelmien suunnitteluun. Hänen työnsä on parantanut merkittävästi päätöksenteon nopeutta ja tarkkuutta eri poikkitoiminnallisissa tiimeissä. Felix tuo jokaiseen projektiin tuloshakuisen ajattelutavan ja vahvan teknisen perustan, ja auttaa organisaatioita vapauttamaan tietojensa täyden potentiaalin.

Tärkein asiantuntemus

  • Git
    Git 4 vuotta
  • Azure Data Factory
    Azure Data Factory 2 vuotta
  • BigQuery
    BigQuery 3 vuotta

Muut taidot

  • Hadoop
    Hadoop 3 vuotta
  • Apache Kafka
    Apache Kafka 2 vuotta
  • Apache Airflow
    Apache Airflow 2 vuotta
Felix

Felix G.

Uruguay

Aloita tästä

Valittu kokemus

Työllisyys

  • Freelancer

    Upwork - 2 years 9 months

    • Building and optimizing data pipelines for diverse clients. Skilled in Python, SQL, and AWS for data processing and storage.

    • Designing Cloud Infrastructure on data warehouse projects.

    • Delivered a real-time data analytics platform for an e-commerce client, enabling faster decision-making based on customer behavior

    Achievements: He worked and implemented cloud-based data solutions for several clients as a freelance. Lastly, he has worked on setting a real-time process based in Kafka for the customer platform, improving the performance of the whole ETL process. He used GitHub Actions in some cases to execute standalone data pipelines.

    Tekniikat:

    • Tekniikat:
    • Databricks Databricks
    • Python Python
    • Apache Kafka Apache Kafka
    • SQL SQL
    • Azure Data Factory Azure Data Factory
    • Matlab Matlab
    • Pandas Pandas
    • Data Engineering
    • AWS Athena AWS Athena
    • BigQuery BigQuery
    • Git Git
    • Data Analytics
    • Snowflake Snowflake
    • Data Modeling
    • ETL ETL
    • Hadoop Hadoop
    • Dagster Dagster
    • dbt dbt
    • Talend Talend
    • AWS Glue AWS Glue
    • Collibra Collibra
  • Data Engineer

    Ballast Lane Applications - 1 year 8 months

    • Build, test, and maintain database and ETL pipeline architectures.

    • Collaborate with management to understand how data is connected.

    • Create new data validation methods and data analysis tools.

    • Ensure compliance with data governance and security policies.

    • Develop algorithms to transform data into useful, actionable information.

    Achievements: Improvement of manual processes by implementing data integration tools within the data pipelines of the project. This made faster data ingestión for the ETL process.

    Tekniikat:

    • Tekniikat:
    • MongoDB MongoDB
    • AWS AWS
    • Databricks Databricks
    • Apache Spark Apache Spark
    • Python Python
    • SQL SQL
    • Pandas Pandas
    • Data Engineering
    • BigQuery BigQuery
    • Git Git
    • Apache Airflow Apache Airflow
    • Data Analytics
    • ETL ETL
    • Tableau Tableau
    • Hadoop Hadoop
    • Talend Talend
    • Collibra Collibra
  • Data Analyst

    Switch Software Solutions - 9 months

    • Analyze the data pipelines and perform data queries on data stored in diverse data warehouses (SQL Server, MySQL).

    • Validate rules for bringing data over, update the data model to reflect any changes, perform reconciliation analysis, and update mapping tables.

    • Create data visualization using Tableau, Qliksense, and open-source libraries.

    Achievements: Collaborated with developers and stakeholders by helping them to shape data models for database migration,

    • Improved data visualization process for business users.

    Tekniikat:

    • Tekniikat:
    • MySQL MySQL
    • Qlik Sense Qlik Sense
    • Python Python
    • Azure Data Factory Azure Data Factory
    • Git Git
    • Data Analytics
    • Data Modeling
    • Tableau Tableau
  • Senior BI Developer

    Sabre Corporation - 1 year 9 months

    • Translate the customer, business and market needs into product requirements.

    • Coordinate with 3rd party companies to deliver on requirements.

    • Understand and identify opportunities to improve and manage data through BI tools like QlikView, QlikSense, Cognos, Alteryx, PowerBI.

    Achievements:

    • Successfully Implemented QlikView dashboards and collaborated with the Analytics unit to migrate existing Tableaau and Alteryx ETL processes into QlikView.

    Tekniikat:

    • Tekniikat:
    • Qlik View Qlik View
    • Qlik Sense Qlik Sense
    • T-SQL T-SQL
    • Microsoft Power BI Microsoft Power BI
    • Data Analytics
    • Tableau Tableau
    • Cognos
    • Talend Talend
    • IBM Cognos Analytics IBM Cognos Analytics
  • IT Consultant / BI Developer

    The Hackett Group - 3 years 11 months

    • Execution of application support for application development activities and maintenance for Oracle EPM products.

    • Manage and deliver data to relevant departments within the organization

    • Design, develop, and maintain OBIEE dashboards.

    Achievements:

    • Acquired a lot of experience and working knowledge that has been the foundation until this time

    Tekniikat:

    • Tekniikat:
    • SQL SQL
    • Oracle Analytics Cloud
    • Oracle Data Integrator

Koulutus

  • BSc.Finance

    Universidad Simon Rodriguez · 2000 - 2006

Portfolio

  • Airflow Movie retriever - 1
  • ETL pipeline using Airbyte Mother Duck connector - 1
  • Medium Notebooks - 1
  • Medium Notebooks - 2

Löydä seuraava kehittäjäsi päivien, ei kuukausien sisällä

Kun otat yhteyttä, järjestämme lyhyen 25 minuuttia kestävän tapaamisen, jonka aikana:

  • Kartoitamme yrityksenne kehitystarvetta
  • Kertoa prosessimme, jolla löydämme teille pätevän, ennakkotarkastetun kehittäjän verkostostamme
  • Käymme läpi askeleet, joilla oikea ehdokas pääsee aloittamaan – useimmiten viikon sisällä

Keskustele kanssamme