NEW
Proxify is bringing transparency to tech team performance based on research conducted at Stanford. An industry first, built for engineering leaders.
Learn more
Mohamed K.
Data Engineer
Mohamed est un ingénieur de données qualifié avec une expertise dans la construction de pipelines de données, de systèmes en temps réel et d'orchestration dans le cloud. Compétent dans des technologies telles que BigQuery, Snowflake, dbt, Kubernetes, Kafka et Airflow, il livre constamment des solutions efficaces, évolutives et performantes.
Chez Weight Watchers, Mohamed a amélioré la fiabilité des ETL en mettant en place des pipelines CI/CD et des systèmes de surveillance automatisés. Chez Swvl, il a développé un système de détection de fraude qui a entraîné d'importantes économies de coûts et a automatisé la migration des bases de données vers BigQuery. Plus tôt dans sa carrière chez Eventum IT Solutions, il a travaillé en tant que développeur full-stack, où il a amélioré les performances système et amélioré les insights utilisateur.
Avec une solide base dans les technologies de données modernes et un parcours éprouvé de résolution de problèmes innovants, Mohamed est un atout précieux pour toute organisation à la recherche d'expertise dans des initiatives d'ingénierie de données complexes.
Principale expertise
- Docker 3 ans
- Java 2 ans
- SQL 4 ans
Autres compétences
- JavaScript 2 ans

- React.js 2 ans
- MySQL 2 ans
Expérience sélectionnée
Emploi
Data Warehouse Engineer
Weight Watchers - 3 années 1 mois
- A amélioré les processus d'intégration, de surveillance et d'automatisation des données en mettant en œuvre des pipelines CI/CD, en améliorant les environnements de service et en optimisant les flux de travail ETL.
- A utilisé des outils d'orchestration dans le cloud pour gérer le cycle de vie complet des données, de l'extraction à la normalisation et à l'injection dans Snowflake et Kafka.
- Développé des tâches de surveillance basées sur Kubernetes utilisant Datadog, Snowflake, Python, Prefect Dataflow Automation et PagerDuty pour suivre et résoudre le retard des données et les enregistrements manquants dans les tâches ETL, améliorant ainsi de manière significative la fiabilité des données et la stabilité du système.
- Mis en place et automatisé des pipelines CI/CD pour plusieurs services utilisant GitHub Actions et des scripts Python, améliorant l'efficacité du déploiement et réduisant les temps d'arrêt.
- Dirigé la mise à niveau des versions de Python à travers les services de 3.9 à 3.11, garantissant la compatibilité, des améliorations de performance et des améliorations de sécurité.
- Migré de dbt Cloud vers dbt Open Source, concevant et mettant en œuvre une architecture évolutive et modulaire pour l'entrepôt de données de Snowflake, qui comprenait :
- Automatisé des pipelines basés sur les métadonnées et des workflows CI/CD robustes en utilisant GitHub Actions et des tests dbt.
- Optimisé les performances des requêtes grâce à des modèles incrémentiels, des matérialisations et un partitionnement stratégique.
- Réduit le temps d'intégration des nouveaux modèles de données, amélioré les temps d'exécution, organisé des sessions de formation pour l'équipe et permis à l'équipe d'analytique de fournir des insights plus rapidement et de manière plus efficace.
Les technologies:
- Les technologies:
MySQL
Docker
Python
Apache Kafka
Kubernetes
SQL
DataDog
Snowflake
dbt
Data Engineer
Swvl - 1 an 3 mois
- A travaillé sur un moteur en temps réel qui a capturé des changements en direct dans les données et a permis une prise de décision automatisée des affaires.
- A développé des projets de pipeline de données ETL axés sur le transfert efficace de données vers l'entrepôt de données.
- A construit un système de détection de fraude en temps réel qui identifiait et bloquait les utilisateurs frauduleux créant plusieurs faux comptes pour exploiter des codes promotionnels, économisant environ un demi-million de livres par mois. Les technologies utilisées comprenaient Debezium, Kafka, Flink et Java.
- A mis en œuvre des pipelines automatisés de migration de données pour transférer des données depuis des bases de données back-end (MongoDB, PostgreSQL, MySQL) vers BigQuery, gérant les changements de schéma de manière transparente et garantissant la cohérence des données. Les technologies utilisées comprenaient Debezium, Kafka, Flink, Airflow, Java, Python et React.js.
Les technologies:
- Les technologies:
JavaScript
React.js
MongoDB
Docker
PostgreSQL
Redis
Java
Python
Apache Kafka
Kubernetes
SQL
Google Cloud
- Data Engineering
BigQuery
Apache Airflow
Apache Flink
dbt
Sofware Engineer
Eventum IT Solutions - 1 an 4 mois
- A développé un Système de Gestion de Réseau qui a fourni des services tels que la surveillance du réseau, l'analyse des performances, la gestion de la configuration et le contrôle à distance des dispositifs en fonction d'événements déclencheurs spécifiés.
- A mis en œuvre une planification de job basée sur les priorités pour améliorer le rendement systémique et l'efficacité.
- A développé des fonctionnalités de suivi de l'activité utilisateur pour surveiller les problèmes de système et analyser le comportement et les préférences des utilisateurs pour améliorer les insights.
Les technologies:
- Les technologies:
MySQL
JavaScript
Redis
Java
Python
Apache Kafka
Spring Boot
Spring
Éducation
License ès sciencesComputer and Systems Engineering
Alexandria University, Faculty of Engineering · 2015 - 2020
Trouvez votre prochain développeur en quelques jours et non sur plusieurs mois
Dans un court appel de 25 minutes, nous voulons:
- Comprendre vos besoins en développement
- Vous expliquez comment nous allons vous mettre en relation avec le développeur le mieux qualifié pour votre projet, sélectionné avec soin
- Vous indiquez nos prochaines démarches afin de vous trouver le meilleur développeur, souvent en moins d'une semaine
