Ali E.

Data Engineer

Ali est un ingénieur de données talentueux avec sept ans d'expérience. Il a travaillé dans différents domaines, tels que l'assurance, les projets gouvernementaux et les systèmes en nuage.

Il possède une vaste expérience en SQL, ETL, Apache Spark, Python et Airflow. Ayant travaillé avec des équipes internationales et des projets gouvernementaux locaux, Ali possède le meilleur de chaque univers dans son ensemble de compétences polyvalentes.

Principale expertise

  • Apache Spark
    Apache Spark 4 ans
  • Data Analytics 7 ans
  • Data Engineering 7 ans

Autres compétences

  • Python
    Python 3 ans
  • Apache Airflow
    Apache Airflow 3 ans
  • Google Cloud
    Google Cloud 3 ans
Ali

Ali E.

Turkey

Commencer

Expérience sélectionnée

Emploi

  • Data Engineer

    GfK(UK) - 3 années 11 mois

    • a utilisé Airflow, SQL, Python, Bigquery, Cloud Storage, CloudRun
    • Travailler sur un ensemble de données de tiers en utilisant GCP
    • Créer et maintenir des DAG dans Airflow 2.3.0 et créer des opérateurs personnalisés
    • Collecter des données à partir d'API tierces telles que Weather, Covid-19, OCDE, etc.
    • Créer des tableaux de bord à l'aide de Streamlit
    • Créer un pipeline en libre-service à l'aide de Gitlab CI/CD pour planifier les NOTEBOOKS Jupyter sur GCP

    Les technologies:

    • Les technologies:
    • BigQuery BigQuery
    • Streamlit Streamlit
  • Data Engineer

    Coca Cola CCI - 1 an 7 mois

    • Soutenir les projets relatifs à la chaîne d'approvisionnement
    • Importer des données brutes depuis d'anciens systèmes et fichiers vers BigQuery
    • Créer des pipelines de données avec Composer (Airflow)
    • Écrire des API pour servir des données avec flask et les déployer sur GCP
    • Exporter ou extraire des données vers Bucket ou Cloud SQL
    • Entraîner des modèles d'IA à l'aide de Vertex AI (entraînement personnalisé)

    Les technologies:

    • Les technologies:
    • BigQuery BigQuery
    • Data Analytics
  • Data Engineer

    Tarentum AI - 5 mois

    ● Hepsiburada is one of the biggest e-commerce companies in Turkey

    ● Create Reports to Hepsiburada’s CFO and Finance Team

    ● Import Raw Data from RDBMS to Hadoop with Sqoop Scripts

    ● Create ETL scripts with Hive Query Language

    ● Read Raw Data from External API(OMS) and Write to Hive Table with Python3

    ● Export Final Tables to MySql with Sqoop

    ● Schedule all jobs with Oozie, Hue

    ● Borusan Predictive Maintenance Project

    ● Restore Sensor Data from .bak files to Azure SQL Server

    ● Clean, Transform, and Combine data for Data Scientists with T-SQL

    ● Store Final Data in Blob Storage(Gen2)

    ● Mount Gen2 to Databricks File System

    ● Get quick insights Using Pyspark (Databricks Notebooks)

    Les technologies:

    • Les technologies:
    • Hadoop Hadoop
  • Big Data Engineer

    TFKB - Turkish Finance Participation Bank - 1 an 6 mois

    • Configurer les écosystèmes Hadoop HDP 3.1.0
    • Installer un cluster HDF(3.3) sur un HDP existant
    • Gestion des clusters (activation de HA, Kerberos)
    • Transfert de données vers Hadoop
    • Développer et mettre au point des tables Hive
    • Chiffrement et masquage des données (politiques de Ranger)
    • Vérifier les scripts de base de données de plus de 40 équipes de développement agile
    • Définir et maintenir les normes de dénomination des objets de la base de données

    Les technologies:

    • Les technologies:
    • Apache NiFi Apache NiFi
    • Hadoop Hadoop
  • Data Engineer

    Insurance Information and Monitoring Centre - 7 mois

    • Transfert de données RDBMS vers HDFS
    • Développer de nouvelles tâches ETL
    • Développer et mettre au point des tables Hive
    • Sécurité des données et des clusters avec Ranger

    Les technologies:

    • Les technologies:
    • Hadoop Hadoop
  • DWH and BI Specialist

    Insurance Information and Monitoring Centre - 9 mois

    ● Setup Hadoop Ecosystems HDP 2.6.3 ● Maintain additional Services like Solr, Banana ● Cluster Management

    Les technologies:

    • Les technologies:
    • Hadoop Hadoop
  • DWH and BI Specialist

    Insurance Information and Monitoring Centre - 2 années 3 mois

    ● Design, Develop, and Maintenance DWH Architecture

    ● Create and improve ETL Processes with ODI 11g, ODI 12c

    ● Develop Business Intelligence Reports with Cognos, Qlikview

    ● Ad-hoc Reports

    Les technologies:

    • Les technologies:
    • Qlik View Qlik View
    • Oracle Oracle
    • ELT
    • Data Analytics
    • PL/SQL PL/SQL
    • Cognos

Éducation

  • FormationIngénieur industriel

    Mondragon Unibertsitatea · 2013 - 2014

  • License ès sciencesIngénieur industriel

    Université de Gaziantep · 2009 - 2014

Trouvez votre prochain développeur en quelques jours et non sur plusieurs mois

Dans un court appel de 25 minutes, nous voulons:

  • Comprendre vos besoins en développement
  • Vous expliquez comment nous allons vous mettre en relation avec le développeur le mieux qualifié pour votre projet, sélectionné avec soin
  • Vous indiquez nos prochaines démarches afin de vous trouver le meilleur développeur, souvent en moins d'une semaine

Contactez-nous