NEW
Proxify is bringing transparency to tech team performance based on research conducted at Stanford. An industry first, built for engineering leaders.
Learn more
Arian F.
Data Engineer
Arian est un ingénieur de données avec plus de quatre ans d'expérience professionnelle. Il est spécialisé dans la conception et l'optimisation de pipelines de données utilisant Databricks, SQL, Apache Spark, Python, AWS et Airflow. Il conçoit des solutions évolutives basées sur l'informatique en nuage et veille à l'efficacité du traitement des données dans les différents systèmes.
L'une de ses principales réalisations a été l'optimisation de l'infrastructure en nuage de son entreprise. En menant des analyses approfondies et en ajustant la configuration et l'utilisation des ressources, Arian a pu réduire les coûts de 30 %, ce qui lui a valu une large reconnaissance pour sa contribution.
Connu pour son souci du détail et son approche réfléchie de la résolution des problèmes, Arian fournit des solutions de données robustes et performantes pour chaque projet.
Principale expertise
- Git 4 ans

- YAML 3 ans
- Fact Data Modeling 3 ans
Autres compétences
- Jira 4 ans
- Microsoft Excel 3 ans
- AWS S3 3 ans
Expérience sélectionnée
Emploi
Data Engineer
Valtech - 1 an
- Travailler avec un grand client mondial du commerce de détail pour reconstruire et améliorer sa plateforme de données, en se concentrant sur l'utilisation pratique des outils Databricks et Azure ;
- Construire et maintenir des pipelines ETL dans Databricks, en traitant les données depuis les systèmes sources jusqu'aux tables finales ;
- Développer un ensemble d'indicateurs clés de performance pour les employés et les RH qui aident les parties prenantes à suivre les tendances en matière de recrutement, de fidélisation et d'autres aspects de la main-d'œuvre. Ces ICP sont activement utilisés par les dirigeants pour soutenir la planification et la prise de décision ;
- Coordonner avec les équipes techniques et non techniques pour s'assurer que les données sont structurées correctement et disponibles en cas de besoin.
Les technologies:
- Les technologies:
AWS
Databricks
Apache Spark
Python
SQL
AWS S3
Azure
Azure Data Factory
DevOps
- Data Engineering
Git
- ELT
Apache Airflow
- Data Analytics
- Data Modeling
Pytest
- Dimensional modeling
- Fact Data Modeling
YAML
PySpark
GitHub Actions
Senior Data Engineer
Starbucks - 9 mois
- Migrated production pipelines from Alteryx to Databricks, improving end-to-end performance and making the workflows easier to run and maintain;
- Led the move from Databricks Hive Metastore to Unity Catalog, standardizing governance and access without disrupting existing workloads;
- Led the build of a new employee movement tracking product end-to-end + data model where I delivered clean, consistent data that powers the dashboard.
Les technologies:
- Les technologies:
Databricks
Python
SQL
Azure Data Factory
- Data Engineering
- ELT
Apache Airflow
- Data Analytics
- Data Modeling
- Fact Data Modeling
- Data Governance
PySpark
- Data Quality
Data Engineer
XponentL Data - 9 mois
- Modernisation de l'infrastructure de données d'une société pétrolière et gazière internationale en optimisant l'architecture des données afin d'améliorer l'efficacité et l'accessibilité.
- Il a dirigé le développement de bout en bout des indicateurs clés de performance (ICP), depuis la collecte des besoins jusqu'au déploiement des solutions dans des environnements de production.
- Il a veillé à ce que les indicateurs de performance clés soient pleinement alignés sur les objectifs de l'entreprise et servent d'outils essentiels à la réussite de l'organisation.
- Mise en œuvre des meilleures pratiques en matière de gestion et de gouvernance des données, afin de soutenir l'évolutivité et la fiabilité à long terme de l'écosystème de données.
Les technologies:
- Les technologies:
AWS
Databricks
Apache Spark
Python
SQL
AWS Lambda
AWS S3
Azure
Microsoft Power BI
Azure Data Factory
Pandas
DevOps
- Data Engineering
Jira
Git
- ELT
Apache Airflow
- Data Analytics
Snowflake
- Data Modeling
- Dimensional modeling
- Fact Data Modeling
YAML
PySpark
Python Lecturer
Creative Hub - 10 mois
- J'ai conçu et donné des cours attrayants en Python pour un camp d'entraînement en science des données, en mettant l'accent sur l'analyse des données et les concepts d'introduction à l'apprentissage automatique.
- Élaboration de plans de cours pratiques mettant l'accent sur l'apprentissage concret et les applications réelles de Python.
- Guider les étudiants à travers la programmation Python fondamentale, en assurant la clarté des principes de base de la science des données et de l'apprentissage automatique.
- Soutien personnalisé aux étudiants, en relevant les défis individuels et en encourageant la confiance dans l'application des compétences Python aux projets.
Les technologies:
- Les technologies:
- Project Management
Python
- Data Engineering
Data Enginner
Raiffeisen Tech - 2 années 1 mois
- Réduction de 30 % des coûts de l'AWS grâce à l'optimisation stratégique et à la gestion des ressources.
- A dirigé la migration d'un lac de données vers Databricks, en assurant une intégration transparente et une amélioration des performances.
- Gestion des processus d'ingénierie des données de bout en bout, y compris les pipelines d'extraction, de transformation et de chargement des données (ETL).
- Exploitation des environnements en nuage pour un stockage, une maintenance et une évolutivité efficaces des données.
- Il a élaboré des produits de données détaillés adaptés aux besoins des clients, et a été reconnu pour la qualité de ses solutions.
Les technologies:
- Les technologies:
AWS
Databricks
Apache Spark
Python
SQL
AWS Lambda
AWS S3
NumPy
DevOps
- Data Engineering
AWS Athena
Jira
Git
- ELT
Apache Airflow
- Data Analytics
- Data Modeling
Amazon CloudWatch
Pytest
- Dimensional modeling
- Fact Data Modeling
Apache Iceberg
YAML
Salesforce
PySpark
Microsoft Excel
Data Engineer/Analyst
Vianova AI - 1 an 7 mois
- Il a développé le premier système de rapports sur les patients de l'entreprise, convertissant des ensembles de données brutes en informations exploitables.
- Utilisation de SQL et de Python pour extraire, nettoyer, traiter et valider les données des patients du monde réel.
- Conception et mise en œuvre de flux de transformation des données afin de garantir l'exactitude et la cohérence des rapports.
- Création de visualisations et de rapports pour présenter les données dans un format convivial, afin de faciliter l'analyse et la prise de décision.
Les technologies:
- Les technologies:
Flask
Postman
Python
SQL
NumPy
Pandas
- Data Engineering
Jira
Git
- ELT
- Data Analytics
- Data Modeling
Microsoft Excel
Éducation
License ès sciencesComputer Engineering
University of Prishtina · 2017 - 2021
Trouvez votre prochain développeur en quelques jours et non sur plusieurs mois
Dans un court appel de 25 minutes, nous voulons:
- Comprendre vos besoins en développement
- Vous expliquez comment nous allons vous mettre en relation avec le développeur le mieux qualifié pour votre projet, sélectionné avec soin
- Vous indiquez nos prochaines démarches afin de vous trouver le meilleur développeur, souvent en moins d'une semaine
