NEW
Proxify is bringing transparency to tech team performance based on research conducted at Stanford. An industry first, built for engineering leaders.
Learn more
Rihab B.
Data Engineer
Rihab is een Data Engineer met meer dan 7 jaar ervaring in gereguleerde sectoren zoals retail, energie en fintech. Ze heeft sterke technische expertise in Python en AWS, met aanvullende vaardigheden in Scala, dataservices en cloudoplossingen.
Naast haar technische vaardigheden heeft Rihab ruime ervaring in leiderschap en projectmanagement. Een van haar belangrijkste prestaties is het bouwen van een datacuration service terwijl ze ook als Scrum Master optrad, waar ze met succes een team aanstuurde en een nieuwe dataservice implementeerde met behulp van Scala.
Rihab's mix van sterke technische vaardigheden en leiderschapservaring maakt haar zeer geschikt voor projecten in gereguleerde sectoren.
Hoofd expertise
- AWS S3 5 jaar
- ETL 5 jaar

- MLOps 2 jaar
Andere vaardigheden
- DevOps 3 jaar
- Tableau 2 jaar

- Machine Learning 2 jaar

Geselecteerde ervaring
Dienstverband
Senior Data Engineer
Data4Geeks - 2 jaar 10 maanden
- Ontwierp en implementeerde datapijplijnen voor zowel batch- als streamverwerking, waarbij de gegevensstroom en efficiëntie werden geoptimaliseerd;
- Onderzoeken en implementeren van datapijplijnen met behulp van AWS Glue en PySpark, om schaalbaarheid en robuustheid te garanderen;
- Delta Lake geïntegreerd in de pijplijnen om deltaverwerking mogelijk te maken, waardoor de mogelijkheden voor gegevensbeheer zijn verbeterd;
- Taaksjablonen ontwikkeld met behulp van Jinja om het maken en beheren van gegevensverwerkingstaken te stroomlijnen;
- Het bouwen en automatiseren van datavalidatiepijplijnen om de nauwkeurigheid en betrouwbaarheid van verwerkte gegevens te garanderen;
- Trino geïmplementeerd en geconfigureerd om efficiënte gegevenstoegang en query's over verschillende bronnen mogelijk te maken;
- Voorbereiding van uitgebreide documentatie voor elke component en tool die is onderzocht, om kennisoverdracht en eenvoudig onderhoud te garanderen;
- Gebruikte tools zoals Python, PySpark, Glue (Jobs, Crawlers, Catalogs), Athena, AWS, MWAA (Airflow), Kubernetes, Trino en Jinja om projectdoelen te bereiken.
Technologieën:
- Technologieën:
AWS
Databricks
Apache Spark
Python
AWS S3
Terraform
- MLOps
R (programming language)
AWS Athena
- Unit Testing
- Acceptance Testing
Machine Learning
- Integration Testing
Pytest
AWS Glue
- MLflow
Senior Data Engineer
Data4Geeks - 2 jaar 10 maanden
Ontwerp en implementatie van een prognoseplatform - Engie (Frans, wereldwijd energiebedrijf)
- Ontwerp en implementatie van een uitgebreid voorspellingsplatform op maat van de wereldwijde energiesector.
- Ontwikkelde datapijplijnen met Python en PySpark, voor efficiënte en schaalbare gegevensverwerking.
- Orkestreerde taakworkflows met behulp van Airflow en Databricks, waarbij taakbeheer en -uitvoering werden geoptimaliseerd.
- Implementeerde datatechnische processen met behulp van Delta Live Tables (DLT) van Databricks voor robuust datamanagement.
- Het bouwen en implementeren van pipelines voor gegevensstroomverwerking met behulp van DLT's, waardoor real-time gegevensverwerking mogelijk werd.
- Ontwikkelde Feature Store API's voor interactie met componenten en creëerde herbruikbare sjablonen om processen te standaardiseren.
- Gebruikte MLflow voor het bouwen, beheren en volgen van experimenten en machine learning-modellen, om rigoureuze experimenten te garanderen.
- De levenscyclus van ML-modellen beheerd met behulp van MLOps-technieken, herbruikbare sjablonen geïmplementeerd voor consistentie en efficiëntie.
- Maak dashboards voor data-analyse en visualisatie, om datagestuurde besluitvorming mogelijk te maken.
- Ontwikkelde API's met behulp van .NET/C# om gegevens te ontsluiten, voor naadloze integratie en toegankelijkheid tussen systemen.
- Gebruikte tools zoals Databricks, PySpark, Python, R, SQL, Glue, Athena, Kubernetes en Airflow om een robuuste en schaalbare oplossing te leveren.
AI/Data Engineer
Data4Geeks - 1 jaar 11 maanden
- Leidde projecten gericht op de integratie van Large Language Models (LLM) en AI-technologieën en stimuleerde innovatie binnen de organisatie;
- Assisteerde bij het ontwerpen en implementeren van oplossingen voor gegevensmigratie en zorgde zo voor naadloze overgangen voor verschillende klanten;
- Ontwikkelde integraties en clients voor vectordatabases, waarbij gebruik werd gemaakt van verschillende open-source AI-tools om de mogelijkheden te vergroten;
- Actief communiceren met klanten om vereisten te verzamelen en ervoor te zorgen dat deze overeenkomen met hun specifieke behoeften;
- Gebruikt tools zoals Python, Google Cloud Platform (GCP) en Datastax om robuuste oplossingen te leveren.
Technologieën:
- Technologieën:
Cassandra
Python
Google Cloud
TensorFlow
Git
LangChain
Software Engineering Manager/Senior Data ENGINEER
Cognira - 6 maanden
Building and supporting promotion planning demo solution
-
Developed generic data pipelines to transform raw client data into a format compatible with the data model of the promotion planning demo system;
-
Wrote scripts to generate meaningful business data, ensuring alignment with the needs of the application;
-
Collaborated with the science team to understand business requirements and determine the necessary data transformations to enhance data utility;
-
Designed and implemented a generic PySpark codebase that efficiently transforms data to fit the required data model;
-
Utilized tools such as PySpark, JupyterHub, Kubernetes, and Azure Data Lake to execute and support the project.
Technologieën:
- Technologieën:
Docker
Databricks
Apache Spark
Maven
Kubernetes
Scala
Azure
Azure Blob storage
- Unit Testing
- Acceptance Testing
- Integration Testing
-
Senior Data Engineer
Data4Geeks - 2 jaar 9 maanden
Implementing and Migrating Data Pipelines, and Supporting Legacy Systems - SumUp (Fintech German Company)
-
Designed and implemented data pipelines for both batch and stream processing, optimizing data flow and efficiency;
-
Explored and implemented data pipelines using AWS Glue and PySpark, ensuring scalability and robustness;
-
Integrated Delta Lake into the pipelines to enable delta processing, enhancing data management capabilities;
-
Developed job templating using Jinja to streamline the creation and management of data processing jobs;
-
Built and automated data validation pipelines, ensuring the accuracy and reliability of processed data;
-
Deployed and configured Trino to facilitate efficient data access and querying across various sources;
-
Prepared comprehensive documentation for each component and tool explored, ensuring knowledge transfer and easy maintenance;
-
Utilized tools such as Python, PySpark, Glue (Jobs, Crawlers, Catalogs), Athena, AWS, MWAA (Airflow), Kubernetes, Trino, and Jinja to achieve project goals.
Technologieën:
- Technologieën:
PostgreSQL
AWS
Python
Terraform
AWS Athena
Jira
Apache Airflow
Snowflake
AWS Glue
-
Software Engineering Manager/Senior Data ENGINEER
Cognira - 3 jaar
Building a Data Curation Platform
-
Implemented a platform designed to make building data pipelines generic, easy, scalable, and quick to assemble for any new client;
-
Prepared detailed design documents, architectural blueprints, and specifications for the platform;
-
Gathered and documented requirements, creating specific epics and tasks, and efficiently distributed work among team members;
-
Developed command-line and pipeline functionalities that enable chaining transformations, facilitating the creation of generic data pipelines;
-
Supported the management of metadata for various entities defined within the platform;
-
Conducted runtime analysis and optimized the performance of different platform functionalities;
-
Studied scalability requirements and designed performance improvement strategies to enhance the platform's robustness;
-
Built a PySpark interface to facilitate seamless integration with data science workflows.
Technologieën:
- Technologieën:
Scala
Azure Blob storage
-
Software Engineering Manager/Senior Data ENGINEER
Cognira - 4 jaar 11 maanden
- Ontwikkelde generieke datapijplijnen om ruwe klantgegevens te transformeren naar een formaat dat compatibel is met het datamodel van het demosysteem voor promotieplanning;
- Schreef scripts om zinvolle bedrijfsgegevens te genereren en zorgde ervoor dat deze in lijn waren met de behoeften van de applicatie;
- Werkte samen met het wetenschappelijke team om de zakelijke vereisten te begrijpen en de nodige gegevenstransformaties te bepalen om de bruikbaarheid van gegevens te verbeteren;
- Ontwerpen en implementeren van een generieke PySpark codebase die gegevens efficiënt transformeert zodat ze passen in het vereiste datamodel;
- Gebruikte tools zoals PySpark, JupyterHub, Kubernetes en Azure Data Lake om het project uit te voeren en te ondersteunen.
Technologieën:
- Technologieën:
Scala
Azure Blob storage
Software Engineering Manager/Senior Data ENGINEER
Cognira - 4 jaar 11 maanden
- Leidde het team bij het bouwen van datapijplijnen ter ondersteuning van de promotieplanningsoplossing van een retailer;
- Deelgenomen aan vergaderingen met business- en data science-teams om de projectbehoeften te begrijpen en te identificeren;
- Werkte samen met het team om business requirements te vertalen in bruikbare epics en stories;
- Ontwierp en implementeerde de geïdentificeerde zakelijke vereisten en zorgde voor afstemming op de projectdoelen;
- Ontwikkelen en uitvoeren van unit tests om de functionele correctheid van implementaties te garanderen;
- Het maken van een data loader applicatie met behulp van Scala Spark om data te laden van Parquet bestanden naar Cosmos DB/Cassandra API;
- Implementeerde een online voorspellings-API met behulp van Scala, Akka en Docker om real-time promotievoorspellingen mogelijk te maken;
- Managede de implementatie van het project op het Kubernetes-cluster van de klant en zorgde voor een soepele werking en integratie;
- Gebruikte tools zoals Scala, Spark, Azure Databricks, Azure Data Lake en Kubernetes om projectdoelen te bereiken.
R&D Engineer
Cognira - 1 jaar 8 maanden
Project 1: Building a Speech Recognition Solution
-
Developed a speech recognition solution aimed at transforming retailers' questions and commands into actionable tasks executed against a user interface (UI);
-
Utilized TensorFlow, Python, AWS, and Node.js to design and implement the solution, ensuring seamless interaction between the speech recognition engine and the UI.
Project 2: Design and Implementation of a Short Life Cycle Forecasting System
-
Prepared comprehensive design documents and conducted studies on existing AI solutions, with a focus on voice and speech recognition capabilities;
-
Collaborated with the team to prepare and collect relevant data for the project;
-
Executed the processes of data augmentation, validation, and transformation to extract essential information for forecasting purposes;
-
Contributed to building a user interface and integrated backend functionalities using tools such as TensorFlow, Python, AWS, JavaScript, Node.js, Scala, and Spark.
Technologieën:
- Technologieën:
Python
Scala
Azure Blob storage
TensorFlow
Machine Learning
-
Fullstack Data Scientist
Infor - 3 jaar 1 maand
-
Designed and structured the architecture for various components of a retail forecasting project;
-
Implemented and deployed key components, ensuring seamless functionality within the overall system;
-
Integrated all components, automating the processes and establishing an end-to-end batch process for streamlined operations;
-
Optimized the runtime and performance of each component, enhancing the system's overall efficiency;
-
Developed forecast comparison templates to facilitate the evaluation of forecast quality, aiding in accurate performance assessments;
-
Utilized Logicblox, Python, and Tableau Software to achieve project goals, ensuring high-quality results.
Technologieën:
- Technologieën:
Python
- Data Science
- Data Engineering
Machine Learning
- Integration Testing
Tableau
-
Educatie
BSc.Computer Science
National School Of Computer Science · 2011 - 2014
Vind jouw volgende ontwikkelaar binnen enkele dagen, niet maanden
In een kort gesprek van 25 minuten:
- gaan we in op wat je nodig hebt om je product te ontwikkelen;
- Ons proces uitleggen om u te matchen met gekwalificeerde, doorgelichte ontwikkelaars uit ons netwerk
- delen we de stappen met je om de juiste match te vinden, vaak al binnen een week.
