Arian F.

Data Engineer

Arian ist ein Dateningenieur mit mehr als vier Jahren Berufserfahrung. Er ist spezialisiert auf die Entwicklung und Optimierung von Datenpipelines mit Databricks, SQL, Apache Spark, Python, AWS und Airflow. Er entwickelt skalierbare, cloudbasierte Lösungen und sorgt für eine effiziente systemübergreifende Datenverarbeitung.

Eine seiner herausragenden Leistungen war die Optimierung der Cloud-Infrastruktur seines Unternehmens. Durch die Durchführung eingehender Analysen und die Anpassung der Ressourcenkonfiguration und -nutzung konnte Arian die Kosten um 30 % senken und erntete für seinen Beitrag breite Anerkennung.

Arian ist bekannt für seine akribische Liebe zum Detail und seinen durchdachten Problemlösungsansatz. Er liefert robuste, leistungsstarke Datenlösungen für jedes Projekt.

Hauptkompetenz

  • Git
    Git 4 Jahre
  • YAML
    YAML 3 Jahre
  • Fact Data Modeling 3 Jahre

Andere Fähigkeiten

  • Jira
    Jira 4 Jahre
  • Microsoft Excel
    Microsoft Excel 3 Jahre
  • AWS S3
    AWS S3 3 Jahre
Arian

Arian F.

Kosovo

Erste Schritte

Ausgewählte Erfahrung

Beschäftigung

  • Data Engineer

    Valtech - 1 jahr

    • Zusammenarbeit mit einem großen globalen Einzelhandelskunden bei der Umgestaltung und Verbesserung seiner Datenplattform mit Schwerpunkt auf der praktischen Nutzung von Databricks und Azure-Tools;
    • Aufbau und Pflege von ETL-Pipelines in Databricks, Verarbeitung von Daten aus Quellsystemen bis hin zu endgültigen Tabellen;
    • Entwicklung einer Reihe von Mitarbeiter- und HR-KPIs, die den Stakeholdern helfen, die Einstellung, Bindung und andere Trends in der Belegschaft zu verfolgen. Diese KPIs werden von den Führungskräften aktiv genutzt, um die Planung und Entscheidungsfindung zu unterstützen;
    • Koordinierung mit technischen und nicht-technischen Teams, um sicherzustellen, dass die Daten korrekt strukturiert und bei Bedarf verfügbar sind.

    Technologien:

    • Technologien:
    • AWS AWS
    • Databricks Databricks
    • Apache Spark Apache Spark
    • Python Python
    • SQL SQL
    • AWS S3 AWS S3
    • Azure Azure
    • Azure Data Factory Azure Data Factory
    • DevOps DevOps
    • Data Engineering
    • Git Git
    • ELT
    • Apache Airflow Apache Airflow
    • Data Analytics
    • Data Modeling
    • Pytest Pytest
    • Dimensional modeling
    • Fact Data Modeling
    • YAML YAML
    • PySpark PySpark
    • GitHub Actions GitHub Actions
  • Senior Data Engineer

    Starbucks - 9 monate

    • Migrated production pipelines from Alteryx to Databricks, improving end-to-end performance and making the workflows easier to run and maintain;
    • Led the move from Databricks Hive Metastore to Unity Catalog, standardizing governance and access without disrupting existing workloads;
    • Led the build of a new employee movement tracking product end-to-end + data model where I delivered clean, consistent data that powers the dashboard.

    Technologien:

    • Technologien:
    • Databricks Databricks
    • Python Python
    • SQL SQL
    • Azure Data Factory Azure Data Factory
    • Data Engineering
    • ELT
    • Apache Airflow Apache Airflow
    • Data Analytics
    • Data Modeling
    • Fact Data Modeling
    • Data Governance
    • PySpark PySpark
    • Data Quality
  • Data Engineer

    XponentL Data - 9 monate

    • Modernisierung der Dateninfrastruktur für ein globales Öl- und Gasunternehmen durch Optimierung der Datenarchitektur zur Steigerung der Effizienz und Verbesserung der Zugänglichkeit.
    • Er leitete die durchgängige Entwicklung von Key Performance Indicators (KPIs), von der Erfassung der Anforderungen bis zur Implementierung der Lösungen in Produktionsumgebungen.
    • Er stellte sicher, dass die KPIs vollständig mit den Unternehmenszielen übereinstimmten und als wichtige Instrumente zur Förderung des Unternehmenserfolgs dienten.
    • Implementierung von Best Practices für Datenmanagement und -verwaltung, um die langfristige Skalierbarkeit und Zuverlässigkeit des Datenökosystems zu unterstützen.

    Technologien:

    • Technologien:
    • AWS AWS
    • Databricks Databricks
    • Apache Spark Apache Spark
    • Python Python
    • SQL SQL
    • AWS Lambda AWS Lambda
    • AWS S3 AWS S3
    • Azure Azure
    • Microsoft Power BI Microsoft Power BI
    • Azure Data Factory Azure Data Factory
    • Pandas Pandas
    • DevOps DevOps
    • Data Engineering
    • Jira Jira
    • Git Git
    • ELT
    • Apache Airflow Apache Airflow
    • Data Analytics
    • Snowflake Snowflake
    • Data Modeling
    • Dimensional modeling
    • Fact Data Modeling
    • YAML YAML
    • PySpark PySpark
  • Python Lecturer

    Creative Hub - 10 monate

    • Entwicklung und Durchführung von ansprechenden Python-Vorlesungen für ein Data Science Bootcamp mit Schwerpunkt auf Datenanalyse und einführenden Konzepten für maschinelles Lernen.
    • Entwicklung von praktischen Unterrichtsplänen, die den Schwerpunkt auf praktisches Lernen und reale Anwendungen von Python legen.
    • Führte die Studenten durch die Grundlagen der Python-Programmierung und sorgte für Klarheit in den Kernprinzipien der Datenwissenschaft und des maschinellen Lernens.
    • Persönliche Unterstützung für Studenten, um auf individuelle Herausforderungen einzugehen und das Vertrauen in die Anwendung von Python-Kenntnissen bei Projekten zu fördern.

    Technologien:

    • Technologien:
    • Project Management
    • Python Python
    • Data Engineering
  • Data Enginner

    Raiffeisen Tech - 2 jahre 1 monat

    • Reduzierung der AWS-Kosten um 30 % durch strategische Optimierung und Ressourcenmanagement.
    • Er leitete die Migration eines Data Lake zu Databricks und sorgte für eine nahtlose Integration und verbesserte Leistung.
    • Verwaltung von End-to-End-Data-Engineering-Prozessen, einschließlich Datenextraktions-, -umwandlungs- und -ladepipelines (ETL).
    • Nutzung von Cloud-Umgebungen für effiziente Datenspeicherung, Wartung und Skalierbarkeit.
    • Er entwickelte detaillierte, auf die Anforderungen der Kunden zugeschnittene Datenprodukte und erntete Anerkennung für die Bereitstellung hochwertiger Lösungen.

    Technologien:

    • Technologien:
    • AWS AWS
    • Databricks Databricks
    • Apache Spark Apache Spark
    • Python Python
    • SQL SQL
    • AWS Lambda AWS Lambda
    • AWS S3 AWS S3
    • NumPy NumPy
    • DevOps DevOps
    • Data Engineering
    • AWS Athena AWS Athena
    • Jira Jira
    • Git Git
    • ELT
    • Apache Airflow Apache Airflow
    • Data Analytics
    • Data Modeling
    • Amazon CloudWatch Amazon CloudWatch
    • Pytest Pytest
    • Dimensional modeling
    • Fact Data Modeling
    • Apache Iceberg Apache Iceberg
    • YAML YAML
    • Salesforce Salesforce
    • PySpark PySpark
    • Microsoft Excel Microsoft Excel
  • Data Engineer/Analyst

    Vianova AI - 1 jahr 7 monate

    • Entwicklung des ersten Patientenberichtssystems des Unternehmens, das Rohdatensätze in verwertbare Erkenntnisse umwandelt.
    • Einsatz von SQL und Python zur Extraktion, Bereinigung, Verarbeitung und Validierung realer Patientendaten.
    • Er entwarf und implementierte Datenumwandlungsabläufe, um die Genauigkeit und Konsistenz der Berichterstattung zu gewährleisten.
    • Erstellung von Visualisierungen und Berichten zur Darstellung von Daten in einem benutzerfreundlichen Format zur Unterstützung laufender Analysen und Entscheidungen.

    Technologien:

    • Technologien:
    • Flask Flask
    • Postman Postman
    • Python Python
    • SQL SQL
    • NumPy NumPy
    • Pandas Pandas
    • Data Engineering
    • Jira Jira
    • Git Git
    • ELT
    • Data Analytics
    • Data Modeling
    • Microsoft Excel Microsoft Excel

Ausbildung

  • BSc.Computer Engineering

    University of Prishtina · 2017 - 2021

Finden Sie Ihren nächsten Entwickler innerhalb von Tagen, nicht Monaten

In einem kurzen 25-minütigen Gespräch würden wir gerne:

  • Auf Ihren Bedarf bezüglich des Recruitments von Software-Entwicklern eingehen
  • Unseren Prozess vorstellen und somit wie wir Sie mit talentierten und geprüften Kandidaten aus unserem Netzwerk zusammenbringen können
  • Die nächsten Schritte besprechen, um den richtigen Kandidaten zu finden - oft in weniger als einer Woche

Unterhalten wir uns