Mohamed K.

Data Engineer

Mohamed est un ingénieur de données qualifié avec une expertise dans la construction de pipelines de données, de systèmes en temps réel et d'orchestration dans le cloud. Compétent dans des technologies telles que BigQuery, Snowflake, dbt, Kubernetes, Kafka et Airflow, il livre constamment des solutions efficaces, évolutives et performantes.

Chez Weight Watchers, Mohamed a amélioré la fiabilité des ETL en mettant en place des pipelines CI/CD et des systèmes de surveillance automatisés. Chez Swvl, il a développé un système de détection de fraude qui a entraîné d'importantes économies de coûts et a automatisé la migration des bases de données vers BigQuery. Plus tôt dans sa carrière chez Eventum IT Solutions, il a travaillé en tant que développeur full-stack, où il a amélioré les performances système et amélioré les insights utilisateur.

Avec une solide base dans les technologies de données modernes et un parcours éprouvé de résolution de problèmes innovants, Mohamed est un atout précieux pour toute organisation à la recherche d'expertise dans des initiatives d'ingénierie de données complexes.

Principale expertise

  • Docker
    Docker 3 ans
  • Java
    Java 2 ans
  • SQL
    SQL 4 ans

Autres compétences

  • JavaScript
    JavaScript 2 ans
  • React.js
    React.js 2 ans
  • MySQL
    MySQL 2 ans
Mohamed

Mohamed K.

Egypt

Commencer

Expérience sélectionnée

Emploi

  • Data Warehouse Engineer

    Weight Watchers - 3 années 1 mois

    • A amélioré les processus d'intégration, de surveillance et d'automatisation des données en mettant en œuvre des pipelines CI/CD, en améliorant les environnements de service et en optimisant les flux de travail ETL.
    • A utilisé des outils d'orchestration dans le cloud pour gérer le cycle de vie complet des données, de l'extraction à la normalisation et à l'injection dans Snowflake et Kafka.
    • Développé des tâches de surveillance basées sur Kubernetes utilisant Datadog, Snowflake, Python, Prefect Dataflow Automation et PagerDuty pour suivre et résoudre le retard des données et les enregistrements manquants dans les tâches ETL, améliorant ainsi de manière significative la fiabilité des données et la stabilité du système.
    • Mis en place et automatisé des pipelines CI/CD pour plusieurs services utilisant GitHub Actions et des scripts Python, améliorant l'efficacité du déploiement et réduisant les temps d'arrêt.
    • Dirigé la mise à niveau des versions de Python à travers les services de 3.9 à 3.11, garantissant la compatibilité, des améliorations de performance et des améliorations de sécurité.
    • Migré de dbt Cloud vers dbt Open Source, concevant et mettant en œuvre une architecture évolutive et modulaire pour l'entrepôt de données de Snowflake, qui comprenait :
    • Automatisé des pipelines basés sur les métadonnées et des workflows CI/CD robustes en utilisant GitHub Actions et des tests dbt.
    • Optimisé les performances des requêtes grâce à des modèles incrémentiels, des matérialisations et un partitionnement stratégique.
    • Réduit le temps d'intégration des nouveaux modèles de données, amélioré les temps d'exécution, organisé des sessions de formation pour l'équipe et permis à l'équipe d'analytique de fournir des insights plus rapidement et de manière plus efficace.

    Les technologies:

    • Les technologies:
    • MySQL MySQL
    • Docker Docker
    • Python Python
    • Apache Kafka Apache Kafka
    • Kubernetes Kubernetes
    • SQL SQL
    • DataDog DataDog
    • Snowflake Snowflake
    • dbt dbt
  • Data Engineer

    Swvl - 1 an 3 mois

    • A travaillé sur un moteur en temps réel qui a capturé des changements en direct dans les données et a permis une prise de décision automatisée des affaires.
    • A développé des projets de pipeline de données ETL axés sur le transfert efficace de données vers l'entrepôt de données.
    • A construit un système de détection de fraude en temps réel qui identifiait et bloquait les utilisateurs frauduleux créant plusieurs faux comptes pour exploiter des codes promotionnels, économisant environ un demi-million de livres par mois. Les technologies utilisées comprenaient Debezium, Kafka, Flink et Java.
    • A mis en œuvre des pipelines automatisés de migration de données pour transférer des données depuis des bases de données back-end (MongoDB, PostgreSQL, MySQL) vers BigQuery, gérant les changements de schéma de manière transparente et garantissant la cohérence des données. Les technologies utilisées comprenaient Debezium, Kafka, Flink, Airflow, Java, Python et React.js.

    Les technologies:

    • Les technologies:
    • JavaScript JavaScript
    • React.js React.js
    • MongoDB MongoDB
    • Docker Docker
    • PostgreSQL PostgreSQL
    • Redis Redis
    • Java Java
    • Python Python
    • Apache Kafka Apache Kafka
    • Kubernetes Kubernetes
    • SQL SQL
    • Google Cloud Google Cloud
    • Data Engineering
    • BigQuery BigQuery
    • Apache Airflow Apache Airflow
    • Apache Flink Apache Flink
    • dbt dbt
  • Sofware Engineer

    Eventum IT Solutions - 1 an 4 mois

    • A développé un Système de Gestion de Réseau qui a fourni des services tels que la surveillance du réseau, l'analyse des performances, la gestion de la configuration et le contrôle à distance des dispositifs en fonction d'événements déclencheurs spécifiés.
    • A mis en œuvre une planification de job basée sur les priorités pour améliorer le rendement systémique et l'efficacité.
    • A développé des fonctionnalités de suivi de l'activité utilisateur pour surveiller les problèmes de système et analyser le comportement et les préférences des utilisateurs pour améliorer les insights.

    Les technologies:

    • Les technologies:
    • MySQL MySQL
    • JavaScript JavaScript
    • Redis Redis
    • Java Java
    • Python Python
    • Apache Kafka Apache Kafka
    • Spring Boot Spring Boot
    • Spring Spring

Éducation

  • License ès sciencesComputer and Systems Engineering

    Alexandria University, Faculty of Engineering · 2015 - 2020

Trouvez votre prochain développeur en quelques jours et non sur plusieurs mois

Dans un court appel de 25 minutes, nous voulons:

  • Comprendre vos besoins en développement
  • Vous expliquez comment nous allons vous mettre en relation avec le développeur le mieux qualifié pour votre projet, sélectionné avec soin
  • Vous indiquez nos prochaines démarches afin de vous trouver le meilleur développeur, souvent en moins d'une semaine

Contactez-nous