Zakaria M.

Data Engineer

Zakaria Morsli ist ein erfahrener Data Engineer mit sechs Jahren Erfahrung in den Branchen IT, Eisenbahn und Gesundheitswesen.

Zakaria Morsli verfügt über Expertise in der Durchführung von ETL/ELT-Operationen mit Azure Databricks. Darüber ist er sehr bewandert im Design und der Implementierung von QlikSense-Lösungen und ermöglicht so eine effektive Datenvisualisierung und -analyse.

Morslis starkes Interesse für künstliche Intelligenz und maschinelles Lernen treibt seine kontinuierliche Erforschung innovativer Lösungen an. Er hält sich über die neuesten Fortschritte in diesen Bereichen auf dem Laufenden und sucht nach Möglichkeiten zur Anwendung modernster Techniken in der Datenanalyse und der prädiktiven Modellierung.

Hauptkompetenz

  • Apache Spark
    Apache Spark 5 Jahre
  • CSV 6 Jahre
  • Data Engineering 6 Jahre

Andere Fähigkeiten

  • Apache Airflow
    Apache Airflow 3 Jahre
  • Qlik Sense
    Qlik Sense 1 Jahre
  • Git
    Git 1 Jahre
Zakaria

Zakaria M.

Portugal

Erste Schritte

Ausgewählte Erfahrung

Beschäftigung

  • Sr. Data Engineer

    KWAN - 1 jahr 4 monate

    -Design and deliver scalable ELT pipelines on Databricks using PySpark, Spark SQL, and medallion architecture (Bronze/Silver/Gold). -Implement data governance practices including Unity Catalog for centralized metadata management and data lineage tracking. -Apply partitioning and caching strategies to optimize query performance and reduce processing times. -Manage CI/CD orchestration with Azure DevOps for automated testing and deployment of data assets. -Integrate Databricks jobs with Airflow DAGs for end-to-end workflow orchestration and dependency management.

    Technologien:

    • Technologien:
    • Databricks Databricks
    • Apache Spark Apache Spark
    • Azure Blob storage Azure Blob storage
    • Apache Airflow Apache Airflow
    • Azure Synapse Azure Synapse
    • PySpark PySpark
    • Azure DevOps Azure DevOps
  • Sr. Data Engineer

    loomtech - 6 monate

    -Built scalable ELT pipelines with Databricks using PySpark/Spark SQL for high-volume energy data processing. -Leveraged Delta Lake with time travel and CDC logic to ensure data consistency, auditability, and rollback capabilities. -Applied partitioning and caching strategies for performance optimization across large-scale transformations. -Managed CI/CD pipelines using GitLab for version-controlled deployments across environments. -Conducted code reviews and cross-team collaboration to maintain engineering standards and code quality.

    Technologien:

    • Technologien:
    • Databricks Databricks
    • Apache Spark Apache Spark
    • SQL SQL
    • PySpark PySpark
    • GitLab GitLab
    • Azure DevOps Azure DevOps
  • Data Engineer

    SDG Group (Client : Johnson & Johnson) - 4 jahre 4 monate

    • Verantwortlich für die Durchführung von ETL/ELT-Operationen mit Azure Databricks unter Verwendung von PySpark und Spark SQL. Dabei extrahierte er Daten aus verschiedenen Quellen, wandelte sie in ein verwendbares Format um und lud sie in eine Zieldatenbank oder ein Data Warehouse.
    • Design, Entwicklung, Test, Debugging und Implementierung von QlikSense-Lösungen auf der Grundlage der von den professionellen Nutzenden festgelegten Anforderungen in Bezug auf die Dashboard-Ziele. Dies umfasste die Erstellung interaktiver Datenvisualisierungen und Berichte, die Stakeholder bei der fundierten Entscheidungsfindung unterstützten. In dieser Rolle verwendete er u. a. Tools wie Azure Databricks, Apache Spark (PySpark, Spark SQL), Qlik Sense und Qlik NPrinting.

    Technologien:

    • Technologien:
    • Databricks Databricks
    • Apache Spark Apache Spark
    • Qlik Sense Qlik Sense
    • Azure Data Factory Azure Data Factory
    • PySpark PySpark
  • Data Engineer

    ONCF Rabat - 3 jahre 3 monate

    • Verantwortlich für die Analyse, das Design und die Implementierung von ETLs/ELT-Workflows für verschiedene Projekte, wie z. B. das CRM-Projekt, das für die Verwaltung von potenziellen und bestehenden Kund:innen sowie Marketingkampagnen verwendet wurde, und das BI-Projekt zum Verkauf von Zugfahrkarten
    • Design und Implementierung automatisierter ETL/ELT-Jobs mit Zeitplanung zur Übertragung von Daten an die zentralisierte Datenbank für Lieferfirmen- und Einkaufsverwaltung aus verschiedenen Datenquellen. In dieser Rolle verwendete er u. a. Tools wie Talend (DI, Big Data, ESB) (Java), Azure Databricks, Hadoop Ecosystem, Apache Spark (Spark SQL, PySpark), Databricks, PostgreSQL und Power BI.

    Technologien:

    • Technologien:
    • PostgreSQL PostgreSQL
    • Databricks Databricks
    • Apache Spark Apache Spark
    • T-SQL T-SQL
    • SQL SQL
    • Azure Azure
    • Talend Talend
    • PySpark PySpark
  • ETL-Ingenieur

    Akka Technologies - 1 jahr 8 monate

    • Performance-Tuning: Optimierung des ETL-Prozesses zur Sicherstellung der Effizienz und Effektivität, Tuning von Datenbankabfragen und Optimierung von Datenströmen
    • Verantwortlich für die Analyse detaillierter Funktionsspezifikationen und die Ausarbeitung technischer Spezifikationen für ETL-Projekte. Dies umfasste das Design und die Durchführung von ETL-Projekten zur Erstellung von Berichten und Zieldateien im Einklang mit den Anforderungen der Kundschaft.
    • Verantwortung dafür, dass die Validierungs- und Umsetzungsphasen dieser Projekte sorgfältig durchgeführt wurden. In dieser Rolle verwendete er die Tools Talend ETL und PostgreSQL.

    Technologien:

    • Technologien:
    • MSSQL MSSQL
    • T-SQL T-SQL
    • SQL SQL
    • Talend Talend

Ausbildung

  • MSc.Staatlicher Ingenieur der Informatik

    Nationale Schule für Informatik und Systemanalyse - ENSIAS Rabat · 2012 - 2016

  • MSc.State Engineer in Computer Science Engineering

    Ecole Nationale Supérieure d'Informatique et d'Analyse des Systèmes - ENSIAS Rabat · 2012 - 2016

Finden Sie Ihren nächsten Entwickler innerhalb von Tagen, nicht Monaten

In einem kurzen 25-minütigen Gespräch würden wir gerne:

  • Auf Ihren Bedarf bezüglich des Recruitments von Software-Entwicklern eingehen
  • Unseren Prozess vorstellen und somit wie wir Sie mit talentierten und geprüften Kandidaten aus unserem Netzwerk zusammenbringen können
  • Die nächsten Schritte besprechen, um den richtigen Kandidaten zu finden - oft in weniger als einer Woche

Unterhalten wir uns