Mohamed K.

Data Engineer

Mohamed ist ein kompetenter Dateningenieur mit Fachkenntnissen im Aufbau von Datenpipelines, Echtzeitsystemen und Cloud-Orchestrierungen. Versiert in Technologien wie BigQuery, Snowflake, dbt, Kubernetes, Kafka und Airflow, liefert er stets effiziente, skalierbare und leistungsfähige Lösungen.

Bei Weight Watchers verbesserte Mohamed die ETL-Zuverlässigkeit, indem er CI/CD-Pipelines und automatisierte Überwachungssysteme implementierte. Bei Swvl entwickelte er ein Betrugserkennungssystem, das zu erheblichen Kosteneinsparungen führte, und automatisierte die Migration von Datenbanken nach BigQuery. Früher in seiner Karriere bei Eventum IT Solutions arbeitete er als Full-Stack-Entwickler, wo er die Systemleistung verbesserte und Benutzererkenntnisse verbesserte.

Mit einem soliden Fundament in modernen Datentechnologien und einer nachweislichen Erfolgsbilanz bei der innovativen Problemlösung ist Mohamed eine wertvolle Bereicherung für jede Organisation, die Fachwissen in komplexen Datenengineering-Initiativen sucht.

Hauptkompetenz

  • Docker
    Docker 3 Jahre
  • Java
    Java 2 Jahre
  • SQL
    SQL 4 Jahre

Andere Fähigkeiten

  • JavaScript
    JavaScript 2 Jahre
  • React.js
    React.js 2 Jahre
  • MySQL
    MySQL 2 Jahre
Mohamed

Mohamed K.

Egypt

Erste Schritte

Ausgewählte Erfahrung

Beschäftigung

  • Data Warehouse Engineer

    Weight Watchers - 3 jahre 1 monat

    – Verbessert die Datenintegration, -überwachung und -automatisierungsprozesse, indem CI/CD-Pipelines implementiert, Dienstumgebungen aktualisiert und ETL-Workflows optimiert wurden. – Nutzte Cloud-Orchestrierungstools, um den gesamten Datenlebenszyklus zu verwalten, von der Extraktion über die Normalisierung bis hin zur Einspeisung in Snowflake und Kafka.

    • Entwickelte Kubernetes-basierte Überwachungsjobs mit Datadog, Snowflake, Python, Prefect Dataflow Automation und PagerDuty, um Datenverzögerungen und fehlende Datensätze in ETL-Jobs zu verfolgen und zu beheben, was die Datenzuverlässigkeit und die Systemstabilität erheblich verbesserte.
    • Richten Sie CI/CD-Pipelines für mehrere Dienste mit GitHub Actions und Python-Skripten ein und automatisiert, um die Effizienz der Bereitstellung zu verbessern und Ausfallzeiten zu reduzieren.
    • Führte das Upgrade der Python-Versionen in allen Diensten von 3.9 auf 3.11 durch, um Kompatibilität, Leistungsverbesserungen und Sicherheitsoptimierungen zu gewährleisten.
    • Migrierte von dbt Cloud zu dbt Open Source und entwarf sowie implementierte eine skalierbare, modulare Architektur für Snowflake's Data Warehouse, die Folgendes umfasste:
    • Automatisierte metadatengetriebene Pipelines und robuste CI/CD-Workflows mit GitHub Actions und dbt-Tests.
    • Optimierte die Abfrageleistung durch inkrementelle Modelle, Materialisierungen und strategische Partitionierung.
    • Reduzierte die Einarbeitungszeit für neue Datenmodelle, verbesserte die Ausführungszeiten, führte Schulungen im Team durch und ermöglichte dem Analyseteam, schneller und effizienter Erkenntnisse zu liefern.

    Technologien:

    • Technologien:
    • MySQL MySQL
    • Docker Docker
    • Python Python
    • Apache Kafka Apache Kafka
    • Kubernetes Kubernetes
    • SQL SQL
    • DataDog DataDog
    • Snowflake Snowflake
    • dbt dbt
  • Data Engineer

    Swvl - 1 jahr 3 monate

    – Arbeitete an einer Echtzeit-Engine, die live Datenänderungen erfasste und automatisierte Geschäftsentscheidungen ermöglichte. – Entwickelte ETL-Datenpipeline-Projekte, die sich auf effizientes Bewegen von Daten in das Data Warehouse konzentrierten. – Baute ein Echtzeit-B Betrugserkennungssystem, das betrügerische Nutzer identifizierte und blockierte, die mehrere gefälschte Konten zur Ausnutzung von Rabattangeboten erstellten, wodurch etwa eine halbe Million Pfund pro Monat eingespart wurden. Verwendete Technologien umfassten Debezium, Kafka, Flink und Java. – Implementierte automatisierte Datenmigrationspipelines, um Daten aus Backend-Datenbanken (MongoDB, PostgreSQL, MySQL) nach BigQuery zu übertragen, bewältigte nahtlos Schemaänderungen und stellte die Datenkonsistenz sicher. Verwendete Technologien umfassten Debezium, Kafka, Flink, Airflow, Java, Python und React.js.

    Technologien:

    • Technologien:
    • JavaScript JavaScript
    • React.js React.js
    • MongoDB MongoDB
    • Docker Docker
    • PostgreSQL PostgreSQL
    • Redis Redis
    • Java Java
    • Python Python
    • Apache Kafka Apache Kafka
    • Kubernetes Kubernetes
    • SQL SQL
    • Google Cloud Google Cloud
    • Data Engineering
    • BigQuery BigQuery
    • Apache Airflow Apache Airflow
    • Apache Flink Apache Flink
    • dbt dbt
  • Sofware Engineer

    Eventum IT Solutions - 1 jahr 4 monate

    – Entwickelte ein Netzwerkmanagementsystem, das Dienstleistungen wie Netzwerküberwachung, Leistungsanalyse, Konfigurationsmanagement und Fernsteuerung von Geräten basierend auf festgelegten Auslöserereignissen lieferte. – Implementierte prioritätsbasierte Aufgabenplanung zur Verbesserung des Systemdurchsatzes und der Effizienz. – Entwickelte Funktionen zur Nachverfolgung der Benutzeraktivitäten, um Systemprobleme zu überwachen und das Benutzerverhalten und -präferenzen für verbesserte Einsichten zu analysieren.

    Technologien:

    • Technologien:
    • MySQL MySQL
    • JavaScript JavaScript
    • Redis Redis
    • Java Java
    • Python Python
    • Apache Kafka Apache Kafka
    • Spring Boot Spring Boot
    • Spring Spring

Ausbildung

  • BSc.Computer and Systems Engineering

    Alexandria University, Faculty of Engineering · 2015 - 2020

Finden Sie Ihren nächsten Entwickler innerhalb von Tagen, nicht Monaten

In einem kurzen 25-minütigen Gespräch würden wir gerne:

  • Auf Ihren Bedarf bezüglich des Recruitments von Software-Entwicklern eingehen
  • Unseren Prozess vorstellen und somit wie wir Sie mit talentierten und geprüften Kandidaten aus unserem Netzwerk zusammenbringen können
  • Die nächsten Schritte besprechen, um den richtigen Kandidaten zu finden - oft in weniger als einer Woche

Unterhalten wir uns