Rihab B.

Data Engineer

Rihab är dataingenjör med över 7 års erfarenhet av att arbeta inom reglerade branscher som detaljhandel, energi och fintech. Hon har en stark teknisk kompetens inom Python och AWS, med ytterligare kunskaper inom Scala, datatjänster och molnlösningar.

Vid sidan av sina tekniska färdigheter har Rihab bred erfarenhet av ledarskap och projektledning. En av hennes viktigaste prestationer är att bygga en tjänst för datakurering samtidigt som hon fungerade som Scrum Master, där hon framgångsrikt ledde ett team och implementerade en ny datatjänst med hjälp av Scala.

Rihabs kombination av starka tekniska färdigheter och ledarskapserfarenhet gör att hon passar utmärkt för projekt inom reglerade branscher.

Huvudsaklig expertis

  • AWS S3
    AWS S3 5 år
  • ETL
    ETL 5 år
  • MLOps 2 år

Andra kompetenser

  • DevOps
    DevOps 3 år
  • Tableau
    Tableau 2 år
  • Machine Learning
    Machine Learning 2 år
Rihab

Rihab B.

Tunisia

Hitta en utvecklare

Utvald erfarenhet

Anställningar

  • Senior Data Engineer

    Data4Geeks - 2 år 10 månader

    • Utformade och implementerade datapipelines för både batch- och strömbehandling, vilket optimerade dataflödet och effektiviteten;
    • Utforska och implementera datapipelines med hjälp av AWS Glue och PySpark, vilket säkerställer skalbarhet och robusthet;
    • Integrerade Delta Lake i pipelines för att möjliggöra deltabehandling och förbättra datahanteringsmöjligheterna;
    • Utvecklade jobbmallar med hjälp av Jinja för att effektivisera skapandet och hanteringen av databehandlingsjobb;
    • Bygga och automatisera pipelines för datavalidering för att säkerställa att bearbetade data är korrekta och tillförlitliga;
    • Distribuerade och konfigurerade Trino för att underlätta effektiv dataåtkomst och förfrågningar över olika källor;
    • Förberedde omfattande dokumentation för varje komponent och verktyg som undersöktes, vilket säkerställde kunskapsöverföring och enkelt underhåll;
    • Använde verktyg som Python, PySpark, Glue (Jobs, Crawlers, Catalogs), Athena, AWS, MWAA (Airflow), Kubernetes, Trino och Jinja för att uppnå projektmål.

    Teknologier:

    • Teknologier:
    • AWS AWS
    • Databricks Databricks
    • Apache Spark Apache Spark
    • Python Python
    • AWS S3 AWS S3
    • Terraform Terraform
    • MLOps
    • R (programming language) R (programming language)
    • AWS Athena AWS Athena
    • Unit Testing
    • Acceptance Testing
    • Machine Learning Machine Learning
    • Integration Testing
    • Pytest Pytest
    • AWS Glue AWS Glue
    • MLflow
  • Senior Data Engineer

    Data4Geeks - 2 år 10 månader

    Design och implementering av en prognosplattform - Engie (franskt globalt energiföretag)

    • Utformning och implementering av en omfattande prognosplattform som är skräddarsydd för den globala energisektorn.
    • Utvecklade datapipelines med hjälp av Python och PySpark, vilket säkerställde effektiv och skalbar databehandling.
    • Orkestrerade jobbarbetsflöden med hjälp av Airflow och Databricks, optimering av uppgiftshantering och utförande.
    • Implementerade datatekniska processer med hjälp av Databricks Delta Live Tables (DLT) för robust datahantering.
    • Byggde och distribuerade pipelines för dataströmsbearbetning med hjälp av DLT, vilket möjliggjorde databehandlingsfunktioner i realtid.
    • Utvecklade Feature Store API:er för interaktion med komponenter och skapade återanvändbara mallar för att standardisera processer.
    • Använde MLflow för att bygga, hantera och spåra experiment och maskininlärningsmodeller, vilket säkerställde rigorös experimentering.
    • Hanterade livscykeln för ML-modeller med hjälp av MLOps-tekniker och implementerade återanvändbara mallar för konsistens och effektivitet.
    • Skapade instrumentpaneler för dataanalys och visualisering, vilket underlättade datadrivet beslutsfattande.
    • Utvecklade API:er med hjälp av .NET/C# för att exponera data och säkerställa sömlös integration och tillgänglighet mellan olika system.
    • Använde verktyg som Databricks, PySpark, Python, R, SQL, Glue, Athena, Kubernetes och Airflow för att leverera en robust och skalbar lösning.
  • AI/Data Engineer

    Data4Geeks - 1 år 11 månader

    • Leda projekt med fokus på att integrera Large Language Models (LLM) och AI-teknik och driva innovation inom organisationen;
    • Hjälpte till med att utforma och implementera lösningar för datamigrering och säkerställde sömlösa övergångar för olika kunder;
    • Utvecklade integrationer och klienter för vektordatabaser, med hjälp av olika AI-verktyg med öppen källkod för att förbättra kapaciteten;
    • Aktivt kommunicerat med kunder för att samla in krav och säkerställa anpassning till deras specifika behov;
    • Använder verktyg som Python, Google Cloud Platform (GCP) och Datastax för att leverera robusta lösningar.

    Teknologier:

    • Teknologier:
    • Cassandra Cassandra
    • Python Python
    • Google Cloud Google Cloud
    • TensorFlow TensorFlow
    • Git Git
    • LangChain LangChain
  • Software Engineering Manager/Senior Data ENGINEER

    Cognira - 6 månader

    Building and supporting promotion planning demo solution

    • Developed generic data pipelines to transform raw client data into a format compatible with the data model of the promotion planning demo system;

    • Wrote scripts to generate meaningful business data, ensuring alignment with the needs of the application;

    • Collaborated with the science team to understand business requirements and determine the necessary data transformations to enhance data utility;

    • Designed and implemented a generic PySpark codebase that efficiently transforms data to fit the required data model;

    • Utilized tools such as PySpark, JupyterHub, Kubernetes, and Azure Data Lake to execute and support the project.

    Teknologier:

    • Teknologier:
    • Docker Docker
    • Databricks Databricks
    • Apache Spark Apache Spark
    • Maven Maven
    • Kubernetes Kubernetes
    • Scala Scala
    • Azure Azure
    • Azure Blob storage Azure Blob storage
    • Unit Testing
    • Acceptance Testing
    • Integration Testing
  • Senior Data Engineer

    Data4Geeks - 2 år 9 månader

    Implementing and Migrating Data Pipelines, and Supporting Legacy Systems - SumUp (Fintech German Company)

    • Designed and implemented data pipelines for both batch and stream processing, optimizing data flow and efficiency;

    • Explored and implemented data pipelines using AWS Glue and PySpark, ensuring scalability and robustness;

    • Integrated Delta Lake into the pipelines to enable delta processing, enhancing data management capabilities;

    • Developed job templating using Jinja to streamline the creation and management of data processing jobs;

    • Built and automated data validation pipelines, ensuring the accuracy and reliability of processed data;

    • Deployed and configured Trino to facilitate efficient data access and querying across various sources;

    • Prepared comprehensive documentation for each component and tool explored, ensuring knowledge transfer and easy maintenance;

    • Utilized tools such as Python, PySpark, Glue (Jobs, Crawlers, Catalogs), Athena, AWS, MWAA (Airflow), Kubernetes, Trino, and Jinja to achieve project goals.

    Teknologier:

    • Teknologier:
    • PostgreSQL PostgreSQL
    • AWS AWS
    • Python Python
    • Terraform Terraform
    • AWS Athena AWS Athena
    • Jira Jira
    • Apache Airflow Apache Airflow
    • Snowflake Snowflake
    • AWS Glue AWS Glue
  • Software Engineering Manager/Senior Data ENGINEER

    Cognira - 3 år

    Building a Data Curation Platform

    • Implemented a platform designed to make building data pipelines generic, easy, scalable, and quick to assemble for any new client;

    • Prepared detailed design documents, architectural blueprints, and specifications for the platform;

    • Gathered and documented requirements, creating specific epics and tasks, and efficiently distributed work among team members;

    • Developed command-line and pipeline functionalities that enable chaining transformations, facilitating the creation of generic data pipelines;

    • Supported the management of metadata for various entities defined within the platform;

    • Conducted runtime analysis and optimized the performance of different platform functionalities;

    • Studied scalability requirements and designed performance improvement strategies to enhance the platform's robustness;

    • Built a PySpark interface to facilitate seamless integration with data science workflows.

    Teknologier:

    • Teknologier:
    • Scala Scala
    • Azure Blob storage Azure Blob storage
  • Software Engineering Manager/Senior Data ENGINEER

    Cognira - 4 år 11 månader

    • Utvecklade generiska datapipelines för att omvandla rå kunddata till ett format som är kompatibelt med datamodellen i demosystemet för kampanjplanering;
    • Skrev skript för att generera meningsfulla affärsdata, vilket säkerställde anpassning till applikationens behov;
    • Samarbetade med vetenskapsteamet för att förstå affärskraven och fastställa nödvändiga datatransformationer för att förbättra dataanvändningen;
    • Design och implementering av en generisk PySpark-kodbas som effektivt omvandlar data för att passa den nödvändiga datamodellen;
    • Använde verktyg som PySpark, JupyterHub, Kubernetes och Azure Data Lake för att genomföra och stödja projektet.

    Teknologier:

    • Teknologier:
    • Scala Scala
    • Azure Blob storage Azure Blob storage
  • Software Engineering Manager/Senior Data ENGINEER

    Cognira - 4 år 11 månader

    • Ledde teamet i att bygga datapipelines för att stödja en detaljhandlares lösning för kampanjplanering;
    • Deltagit i möten med affärs- och datavetenskapsteam för att förstå och identifiera projektbehov;
    • Samarbetade med teamet för att översätta affärskrav till handlingsbara epics och berättelser;
    • Utformade och implementerade de identifierade affärskraven och säkerställde att de överensstämde med projektmålen;
    • Utvecklat och utfört enhetstester för att säkerställa att implementationerna är funktionellt korrekta;
    • Skapade en dataladdningsapplikation med Scala Spark för att ladda data från Parquet-filer till Cosmos DB/Cassandra API;
    • Implementerade ett API för onlineprognoser med hjälp av Scala, Akka och Docker för att möjliggöra realtidsprognoser för marknadsföring;
    • Hanterade distributionen av projektet på kundens Kubernetes-kluster, vilket säkerställde smidig drift och integration;
    • Använde verktyg som Scala, Spark, Azure Databricks, Azure Data Lake och Kubernetes för att uppnå projektmålen.
  • R&D Engineer

    Cognira - 1 år 8 månader

    Project 1: Building a Speech Recognition Solution

    • Developed a speech recognition solution aimed at transforming retailers' questions and commands into actionable tasks executed against a user interface (UI);

    • Utilized TensorFlow, Python, AWS, and Node.js to design and implement the solution, ensuring seamless interaction between the speech recognition engine and the UI.

    Project 2: Design and Implementation of a Short Life Cycle Forecasting System

    • Prepared comprehensive design documents and conducted studies on existing AI solutions, with a focus on voice and speech recognition capabilities;

    • Collaborated with the team to prepare and collect relevant data for the project;

    • Executed the processes of data augmentation, validation, and transformation to extract essential information for forecasting purposes;

    • Contributed to building a user interface and integrated backend functionalities using tools such as TensorFlow, Python, AWS, JavaScript, Node.js, Scala, and Spark.

    Teknologier:

    • Teknologier:
    • Python Python
    • Scala Scala
    • Azure Blob storage Azure Blob storage
    • TensorFlow TensorFlow
    • Machine Learning Machine Learning
  • Fullstack Data Scientist

    Infor - 3 år 1 månad

    • Designed and structured the architecture for various components of a retail forecasting project;

    • Implemented and deployed key components, ensuring seamless functionality within the overall system;

    • Integrated all components, automating the processes and establishing an end-to-end batch process for streamlined operations;

    • Optimized the runtime and performance of each component, enhancing the system's overall efficiency;

    • Developed forecast comparison templates to facilitate the evaluation of forecast quality, aiding in accurate performance assessments;

    • Utilized Logicblox, Python, and Tableau Software to achieve project goals, ensuring high-quality results.

    Teknologier:

    • Teknologier:
    • Python Python
    • Data Science
    • Data Engineering
    • Machine Learning Machine Learning
    • Integration Testing
    • Tableau Tableau

Utbildning

  • BSc.Computer Science

    National School Of Computer Science · 2011 - 2014

Hitta din nästa utvecklare inom ett par dagar

Ge oss 25 minuter av din tid, så kommer vi att:

  • Sätta oss in i dina utmaningar och behov
  • Berätta om våra seniora och beprövade utvecklare
  • Förklara hur vi kan matcha dig med precis rätt utvecklare

Låt oss ta ett kort digitalt möte.