Arian F.

Data Engineer

Arian est un ingénieur de données avec plus de quatre ans d'expérience professionnelle. Il est spécialisé dans la conception et l'optimisation de pipelines de données utilisant Databricks, SQL, Apache Spark, Python, AWS et Airflow. Il conçoit des solutions évolutives basées sur l'informatique en nuage et veille à l'efficacité du traitement des données dans les différents systèmes.

L'une de ses principales réalisations a été l'optimisation de l'infrastructure en nuage de son entreprise. En menant des analyses approfondies et en ajustant la configuration et l'utilisation des ressources, Arian a pu réduire les coûts de 30 %, ce qui lui a valu une large reconnaissance pour sa contribution.

Connu pour son souci du détail et son approche réfléchie de la résolution des problèmes, Arian fournit des solutions de données robustes et performantes pour chaque projet.

Principale expertise

  • Git
    Git 4 ans
  • YAML
    YAML 3 ans
  • Fact Data Modeling 3 ans

Autres compétences

  • Jira
    Jira 4 ans
  • Microsoft Excel
    Microsoft Excel 3 ans
  • AWS S3
    AWS S3 3 ans
Arian

Arian F.

Kosovo

Commencer

Expérience sélectionnée

Emploi

  • Data Engineer

    Valtech - 1 an

    • Travailler avec un grand client mondial du commerce de détail pour reconstruire et améliorer sa plateforme de données, en se concentrant sur l'utilisation pratique des outils Databricks et Azure ;
    • Construire et maintenir des pipelines ETL dans Databricks, en traitant les données depuis les systèmes sources jusqu'aux tables finales ;
    • Développer un ensemble d'indicateurs clés de performance pour les employés et les RH qui aident les parties prenantes à suivre les tendances en matière de recrutement, de fidélisation et d'autres aspects de la main-d'œuvre. Ces ICP sont activement utilisés par les dirigeants pour soutenir la planification et la prise de décision ;
    • Coordonner avec les équipes techniques et non techniques pour s'assurer que les données sont structurées correctement et disponibles en cas de besoin.

    Les technologies:

    • Les technologies:
    • AWS AWS
    • Databricks Databricks
    • Apache Spark Apache Spark
    • Python Python
    • SQL SQL
    • AWS S3 AWS S3
    • Azure Azure
    • Azure Data Factory Azure Data Factory
    • DevOps DevOps
    • Data Engineering
    • Git Git
    • ELT
    • Apache Airflow Apache Airflow
    • Data Analytics
    • Data Modeling
    • Pytest Pytest
    • Dimensional modeling
    • Fact Data Modeling
    • YAML YAML
    • PySpark PySpark
    • GitHub Actions GitHub Actions
  • Senior Data Engineer

    Starbucks - 9 mois

    • Migrated production pipelines from Alteryx to Databricks, improving end-to-end performance and making the workflows easier to run and maintain;
    • Led the move from Databricks Hive Metastore to Unity Catalog, standardizing governance and access without disrupting existing workloads;
    • Led the build of a new employee movement tracking product end-to-end + data model where I delivered clean, consistent data that powers the dashboard.

    Les technologies:

    • Les technologies:
    • Databricks Databricks
    • Python Python
    • SQL SQL
    • Azure Data Factory Azure Data Factory
    • Data Engineering
    • ELT
    • Apache Airflow Apache Airflow
    • Data Analytics
    • Data Modeling
    • Fact Data Modeling
    • Data Governance
    • PySpark PySpark
    • Data Quality
  • Data Engineer

    XponentL Data - 9 mois

    • Modernisation de l'infrastructure de données d'une société pétrolière et gazière internationale en optimisant l'architecture des données afin d'améliorer l'efficacité et l'accessibilité.
    • Il a dirigé le développement de bout en bout des indicateurs clés de performance (ICP), depuis la collecte des besoins jusqu'au déploiement des solutions dans des environnements de production.
    • Il a veillé à ce que les indicateurs de performance clés soient pleinement alignés sur les objectifs de l'entreprise et servent d'outils essentiels à la réussite de l'organisation.
    • Mise en œuvre des meilleures pratiques en matière de gestion et de gouvernance des données, afin de soutenir l'évolutivité et la fiabilité à long terme de l'écosystème de données.

    Les technologies:

    • Les technologies:
    • AWS AWS
    • Databricks Databricks
    • Apache Spark Apache Spark
    • Python Python
    • SQL SQL
    • AWS Lambda AWS Lambda
    • AWS S3 AWS S3
    • Azure Azure
    • Microsoft Power BI Microsoft Power BI
    • Azure Data Factory Azure Data Factory
    • Pandas Pandas
    • DevOps DevOps
    • Data Engineering
    • Jira Jira
    • Git Git
    • ELT
    • Apache Airflow Apache Airflow
    • Data Analytics
    • Snowflake Snowflake
    • Data Modeling
    • Dimensional modeling
    • Fact Data Modeling
    • YAML YAML
    • PySpark PySpark
  • Python Lecturer

    Creative Hub - 10 mois

    • J'ai conçu et donné des cours attrayants en Python pour un camp d'entraînement en science des données, en mettant l'accent sur l'analyse des données et les concepts d'introduction à l'apprentissage automatique.
    • Élaboration de plans de cours pratiques mettant l'accent sur l'apprentissage concret et les applications réelles de Python.
    • Guider les étudiants à travers la programmation Python fondamentale, en assurant la clarté des principes de base de la science des données et de l'apprentissage automatique.
    • Soutien personnalisé aux étudiants, en relevant les défis individuels et en encourageant la confiance dans l'application des compétences Python aux projets.

    Les technologies:

    • Les technologies:
    • Project Management
    • Python Python
    • Data Engineering
  • Data Enginner

    Raiffeisen Tech - 2 années 1 mois

    • Réduction de 30 % des coûts de l'AWS grâce à l'optimisation stratégique et à la gestion des ressources.
    • A dirigé la migration d'un lac de données vers Databricks, en assurant une intégration transparente et une amélioration des performances.
    • Gestion des processus d'ingénierie des données de bout en bout, y compris les pipelines d'extraction, de transformation et de chargement des données (ETL).
    • Exploitation des environnements en nuage pour un stockage, une maintenance et une évolutivité efficaces des données.
    • Il a élaboré des produits de données détaillés adaptés aux besoins des clients, et a été reconnu pour la qualité de ses solutions.

    Les technologies:

    • Les technologies:
    • AWS AWS
    • Databricks Databricks
    • Apache Spark Apache Spark
    • Python Python
    • SQL SQL
    • AWS Lambda AWS Lambda
    • AWS S3 AWS S3
    • NumPy NumPy
    • DevOps DevOps
    • Data Engineering
    • AWS Athena AWS Athena
    • Jira Jira
    • Git Git
    • ELT
    • Apache Airflow Apache Airflow
    • Data Analytics
    • Data Modeling
    • Amazon CloudWatch Amazon CloudWatch
    • Pytest Pytest
    • Dimensional modeling
    • Fact Data Modeling
    • Apache Iceberg Apache Iceberg
    • YAML YAML
    • Salesforce Salesforce
    • PySpark PySpark
    • Microsoft Excel Microsoft Excel
  • Data Engineer/Analyst

    Vianova AI - 1 an 7 mois

    • Il a développé le premier système de rapports sur les patients de l'entreprise, convertissant des ensembles de données brutes en informations exploitables.
    • Utilisation de SQL et de Python pour extraire, nettoyer, traiter et valider les données des patients du monde réel.
    • Conception et mise en œuvre de flux de transformation des données afin de garantir l'exactitude et la cohérence des rapports.
    • Création de visualisations et de rapports pour présenter les données dans un format convivial, afin de faciliter l'analyse et la prise de décision.

    Les technologies:

    • Les technologies:
    • Flask Flask
    • Postman Postman
    • Python Python
    • SQL SQL
    • NumPy NumPy
    • Pandas Pandas
    • Data Engineering
    • Jira Jira
    • Git Git
    • ELT
    • Data Analytics
    • Data Modeling
    • Microsoft Excel Microsoft Excel

Éducation

  • License ès sciencesComputer Engineering

    University of Prishtina · 2017 - 2021

Trouvez votre prochain développeur en quelques jours et non sur plusieurs mois

Dans un court appel de 25 minutes, nous voulons:

  • Comprendre vos besoins en développement
  • Vous expliquez comment nous allons vous mettre en relation avec le développeur le mieux qualifié pour votre projet, sélectionné avec soin
  • Vous indiquez nos prochaines démarches afin de vous trouver le meilleur développeur, souvent en moins d'une semaine

Contactez-nous