Moses O.

Data Engineer

Moses est un ingénieur de données compétent avec huit ans d'expérience dans la conception et l'optimisation de solutions de données dans diverses industries. Il possède une grande expertise en SQL, Python, Spark, Databricks, DBT, Airflow, Kafka et les plateformes cloud telles que Azure, GCP et AWS.

L'une de ses principales réalisations consiste à remanier les pipelines de données d'un client en migrant son ancien système vers Databricks. Cette transformation a eu un impact particulier car il a réussi à adapter la solution pour répondre aux besoins distincts des équipes d'ingénierie des données, d'apprentissage automatique et d'ingénierie analytique, ce qui a donné lieu à une infrastructure de données robuste et adaptable.

Avec une forte capacité à aligner les exigences des parties prenantes sur les implémentations techniques, Moses fournit constamment des solutions de données innovantes, évolutives et efficaces qui favorisent le succès de l'entreprise.

Principale expertise

  • Microsoft Power BI
    Microsoft Power BI 6 ans
  • SSAS
    SSAS 6 ans
  • SSIS
    SSIS 8 ans

Autres compétences

  • Kubernetes
    Kubernetes 5 ans
  • Terraform
    Terraform 4 ans
  • Keras
    Keras 3 ans
Moses

Moses O.

Estonia

Commencer

Expérience sélectionnée

Emploi

  • Data Engineer

    Bondora - 1 an 11 mois

    • Géré et développé des pipelines de données évolutifs à l'aide d'Azure DevOps pour l'intégration continue et le déploiement continu (CI/CD).
    • Facilit é la collecte de données à partir de sources externes diverses et de bases de données opérationnelles vers les couches bronze, argent et or d'une architecture Lakehouse.
    • Tiré parti d'un cadre construit sur mesure utilisant Python, SQL, Azure Databricks, SSIS, Azure Event Hubs et Azure Data Factory pour rationaliser les workflows de traitement des données.
    • Conçu et mis en œuvre des solutions de tableaux de bord à l'aide de Looker pour fournir des insights exploitables.
    • Orchestré des workflows avec DBT (Data Build Tool) et Databricks Workflows pour garantir des transformations de données fluides et des opérations efficaces de pipelines.

    Les technologies:

    • Les technologies:
    • Docker Docker
    • PostgreSQL PostgreSQL
    • Databricks Databricks
    • Flask Flask
    • MSSQL MSSQL
    • Postman Postman
    • Python Python
    • Apache Kafka Apache Kafka
    • Kubernetes Kubernetes
    • SQL SQL
    • Bash Bash
    • Azure Azure
    • Azure Blob storage Azure Blob storage
    • Microsoft Power BI Microsoft Power BI
    • Grafana Grafana
    • Azure Data Factory Azure Data Factory
    • Selenium Selenium
    • Terraform Terraform
    • NumPy NumPy
    • Pandas Pandas
    • DevOps DevOps
    • PyTorch PyTorch
    • Git Git
    • SSIS SSIS
    • JSON JSON
    • ELT
    • Apache Airflow Apache Airflow
    • Azure Cloud Azure Cloud
    • Data Modeling
    • ETL ETL
    • REST API REST API
    • PowerShell PowerShell
    • FastAPI FastAPI
    • Tableau Tableau
    • SharePoint SharePoint
    • Pydantic Pydantic
    • dbt dbt
    • MS 365 Power Apps MS 365 Power Apps
    • Microsoft Power Automate Microsoft Power Automate
    • Azure Event Hubs Azure Event Hubs
    • Confluent Confluent
  • Data Engineer

    Breakwater Technology - 1 an 7 mois

    • Géré, construit et sécurisé à la fois des pipelines de données par lots et en streaming en temps réel pour traiter et analyser efficacement de grands ensembles de données.
    • Identifié des tendances dans des ensembles de données complexes pour fournir des insights précieux et soutenir la prise de décision basée sur les données.
    • Développé et maintenu des entrepôts de données pour transformer des données brutes en formats structurés et accessibles pour les clients.
    • Conçu et mis en œuvre des frameworks réutilisables pour le stockage et le traitement de sources de données externes.
    • Utilisé des technologies telles que SQL, Python, Scala, Apache Spark, DBT, BigQuery et Airflow pour un traitement et une transformation des données évolutifs.
    • Intégré Kafka Connect pour un streaming de données en temps réel et une connectivité fluide avec les systèmes externes.
    • Créé des visualisations de données interactives et pertinentes à l'aide de Google Data Studio pour communiquer efficacement les résultats.

    Les technologies:

    • Les technologies:
    • Docker Docker
    • AWS AWS
    • Apache Spark Apache Spark
    • Flask Flask
    • Postman Postman
    • Python Python
    • Apache Kafka Apache Kafka
    • Kubernetes Kubernetes
    • SQL SQL
    • Bash Bash
    • Scala Scala
    • Azure Blob storage Azure Blob storage
    • Google Cloud Google Cloud
    • Terraform Terraform
    • NumPy NumPy
    • Pandas Pandas
    • DevOps DevOps
    • PyTorch PyTorch
    • BigQuery BigQuery
    • Git Git
    • JSON JSON
    • ELT
    • Apache Airflow Apache Airflow
    • Data Modeling
    • ETL ETL
    • REST API REST API
    • FastAPI FastAPI
    • Pydantic Pydantic
    • dbt dbt
    • Salesforce Salesforce
    • Looker Looker
    • Confluent Confluent
  • Data Engineer

    Dubai Holding - 2 mois

    • Conçu et développé des solutions de big data pour gérer des enregistrements clients en or à travers divers secteurs d'activité, garantissant l'exactitude et la cohérence des données.
    • Consolidé de grands ensembles de données provenant de diverses sources en utilisant des technologies telles que SQL, Python, Azure Databricks, Azure Event Hubs et Azure Data Factory.
    • Appliqué les principes de l'architecture des données médallion pour créer des couches de données structurées et efficaces (bronze, argent, or) pour une gestion et une analyse des données optimisées.
    • Utilisé Azure Data Lake et Azure Synapse Analytics pour permettre un stockage et un traitement des données évolutifs.
    • Mis en œuvre des pipelines CI/CD avec Azure DevOps pour rationaliser les processus de développement et de déploiement pour les solutions de données.

    Les technologies:

    • Les technologies:
    • Docker Docker
    • Databricks Databricks
    • Flask Flask
    • MSSQL MSSQL
    • Postman Postman
    • Python Python
    • Apache Kafka Apache Kafka
    • Kubernetes Kubernetes
    • SQL SQL
    • Bash Bash
    • Azure Azure
    • Azure Blob storage Azure Blob storage
    • Microsoft Power BI Microsoft Power BI
    • Azure Data Factory Azure Data Factory
    • NumPy NumPy
    • Pandas Pandas
    • DevOps DevOps
    • PyTorch PyTorch
    • Git Git
    • JSON JSON
    • ELT
    • Azure Synapse Azure Synapse
    • Azure Cloud Azure Cloud
    • Data Modeling
    • ETL ETL
    • REST API REST API
    • PowerShell PowerShell
    • FastAPI FastAPI
    • SharePoint SharePoint
    • Pydantic Pydantic
    • Microsoft Power Automate Microsoft Power Automate
    • Azure Event Hubs Azure Event Hubs
  • Data Engineer

    PricewaterhouseCoopers (PwC) - 2 années 2 mois

    • Géré, construit et sécurisé des bases de données et des pipelines de données Microsoft SQL Server (2017, 2019, Azure SQL), permettant une intégration des données d'entreprise entre des systèmes hétérogènes pour les bureaux PwC dans 12 pays en utilisant Databricks et Azure Data Factory.
    • Migré des pipelines de données anciens vers Azure Databricks, améliorant les performances et l'évolutivité.
    • Construit des processus ETL en utilisant Azure Data Factory pour soutenir des workflows commerciaux clés et assurer des opérations de données sans faille.
    • Co-dirigé une équipe d'intégration, livrant des interfaces pour un projet de transformation numérique significatif dans le secteur de la finance.
    • Conçu des tableaux de bord Power BI pour la direction, fournissant des insights en temps réel et instantanés grâce à des indicateurs clés de performance (KPI).
    • Amélioré le temps de réponse des requêtes SSRS de 15 % grâce à une restructuration des requêtes après une analyse approfondie du plan d'exécution.
    • Conduit des améliorations de plateformes de données, y compris la planification de capacité pour augmenter l'évolutivité et soutenir la croissance des entreprises.
    • Garantit la sécurité, la qualité et la gouvernance des données sur toutes les plateformes de données pour maintenir la conformité et l'intégrité opérationnelle.

    Les technologies:

    • Les technologies:
    • Docker Docker
    • Databricks Databricks
    • Flask Flask
    • MSSQL MSSQL
    • T-SQL T-SQL
    • Postman Postman
    • Python Python
    • Apache Kafka Apache Kafka
    • Kubernetes Kubernetes
    • SQL SQL
    • Bash Bash
    • Azure Azure
    • Azure Blob storage Azure Blob storage
    • Microsoft Power BI Microsoft Power BI
    • Google Cloud Google Cloud
    • Azure Data Factory Azure Data Factory
    • Selenium Selenium
    • Terraform Terraform
    • NumPy NumPy
    • Keras Keras
    • Pandas Pandas
    • DevOps DevOps
    • PyTorch PyTorch
    • BigQuery BigQuery
    • Git Git
    • SSAS SSAS
    • SSIS SSIS
    • JSON JSON
    • ELT
    • Apache Airflow Apache Airflow
    • Azure Cloud Azure Cloud
    • Data Modeling
    • ETL ETL
    • REST API REST API
    • PowerShell PowerShell
    • FastAPI FastAPI
    • Tableau Tableau
    • SharePoint SharePoint
    • Pydantic Pydantic
    • Looker Looker
    • MS 365 Administration MS 365 Administration
    • Microsoft Power Automate Microsoft Power Automate
    • UiPath UiPath
    • VMware vSphere VMware vSphere
    • Workday HCM Workday HCM
    • MuleSoft Anypoint Platform
  • Data Architect – February 2016 to May 2019

    PricewaterhouseCoopers (PwC) - 3 années 3 mois

    • Managed data platforms and pipelines for critical business systems across NoSQL, MySQL, and MSSQL databases, ensuring optimal performance and reliability;

    • Designed data architecture, implemented data warehousing solutions, and coordinated infrastructure changes to meet business requirements;

    • Contributed to a 30% reduction in database administration task time by developing PowerShell scripts to automate installation, configuration, monitoring, patch management, and upgrades;

    • Conducted research on emerging data platform technologies and practices, producing thought leadership documentation to enhance the technical expertise of the team;

    • Developed and tested Disaster Recovery (DR) strategies for operational MSSQL databases and OLAP cubes, implementing clustering and replication solutions to achieve a Recovery Time Objective (RTO) of 4 minutes and 99.9% system availability.

    Les technologies:

    • Les technologies:
    • MySQL MySQL
    • Docker Docker
    • Databricks Databricks
    • Flask Flask
    • MSSQL MSSQL
    • T-SQL T-SQL
    • Postman Postman
    • Python Python
    • Apache Kafka Apache Kafka
    • Kubernetes Kubernetes
    • Bash Bash
    • Azure Azure
    • Azure Blob storage Azure Blob storage
    • Microsoft Power BI Microsoft Power BI
    • Google Cloud Google Cloud
    • Azure Data Factory Azure Data Factory
    • Selenium Selenium
    • Terraform Terraform
    • NumPy NumPy
    • Keras Keras
    • Pandas Pandas
    • DevOps DevOps
    • PyTorch PyTorch
    • BigQuery BigQuery
    • Git Git
    • SSAS SSAS
    • SSIS SSIS
    • JSON JSON
    • ELT
    • Apache Airflow Apache Airflow
    • Azure Cloud Azure Cloud
    • Data Modeling
    • ETL ETL
    • REST API REST API
    • PowerShell PowerShell
    • FastAPI FastAPI
    • SharePoint SharePoint
    • Pydantic Pydantic
    • NoSQL
    • MS 365 Administration MS 365 Administration
    • UiPath UiPath
    • VMware vSphere VMware vSphere
  • Solutions Developer

    PricewaterhouseCoopers (PwC) - 2 années 2 mois

    • Developed, maintained, and supported application programs with backends in MySQL, Microsoft SQL Server (2012, 2014), and Oracle 11g, ensuring reliable performance and functionality;

    • Led and architected multitier application design, testing, and deployment, ensuring scalability and robust functionality;

    • Conducted complex technical reviews of database systems to optimize performance, resource utilization, and data integrity;

    • Mentored development teams in Agile best practices, resulting in decreased development time and improved team efficiency;

    • Participated as a member of a special forensic audit team for Local Authorities in Ghana, analyzing transactional data in Microsoft SQL Server and Oracle databases using T-SQL scripts to identify fraudulent activities.

    Les technologies:

    • Les technologies:
    • MySQL MySQL
    • Databricks Databricks
    • Java Java
    • MSSQL MSSQL
    • T-SQL T-SQL
    • Python Python
    • C# C#
    • SQL SQL
    • Azure Azure
    • Azure Blob storage Azure Blob storage
    • Git Git
    • SSAS SSAS
    • SSIS SSIS
    • JSON JSON
    • VB.NET VB.NET
    • ELT
    • Azure Cloud Azure Cloud
    • Data Modeling
    • ETL ETL
    • REST API REST API
    • PowerShell PowerShell
    • FastAPI FastAPI
    • SharePoint SharePoint
    • MS 365 Administration MS 365 Administration
    • UiPath UiPath
    • VMware vSphere VMware vSphere
  • Technical Support Engineer

    Newmont Corporation - 11 mois

    • Assisted in planning, designing, testing, troubleshooting, and deploying applications, as well as physical and virtual server environments and workstations, ensuring seamless operation;

    • Initiated and facilitated ITIL processes, including Incident Management, Request Fulfillment, Access Management, Problem Management, and Knowledge Management, to enhance IT service delivery and support;

    • Played a key role in the companywide migration from a legacy enterprise resource planning (ERP) system to SAP, providing comprehensive end-user training and support;

    • Prepared detailed requirements and specifications for new systems and modifications to existing systems, including supporting documentation and design, to align with organizational needs.

    Les technologies:

    • Les technologies:
    • MSSQL MSSQL
    • PowerShell PowerShell
    • SAP SAP

Éducation

  • Maîtrise ès sciencesManagement

    Estonian Business School · 2022 - 2023

  • Maîtrise ès sciencesData Science

    Middlesex University · 2019 - 2021

  • Maîtrise ès sciencesManagement Information Systems

    Coventry University · 2014 - 2015

  • License ès sciencesComputer Science

    Valley View University · 2008 - 2012

Trouvez votre prochain développeur en quelques jours et non sur plusieurs mois

Dans un court appel de 25 minutes, nous voulons:

  • Comprendre vos besoins en développement
  • Vous expliquez comment nous allons vous mettre en relation avec le développeur le mieux qualifié pour votre projet, sélectionné avec soin
  • Vous indiquez nos prochaines démarches afin de vous trouver le meilleur développeur, souvent en moins d'une semaine

Contactez-nous