Himanshu S.
Data Engineer
Himanshu on kouliintunut datainsinööri, jolla on laaja kokemus ja ammattitaito SQL:stä, Snowflakesta ja AWS:stä. Hän on työskennellyt eri aloilla, kuten terveydenhuollossa, vähittäiskaupassa, autoteollisuudessa ja rahoitusalalla.
Himanshu on hionut taitojaan viimeisten viiden vuoden aikana. Hänen asiantuntemuksensa koneoppimisessa ja datatieteessä on tehnyt hänestä Full-stack-datakonsultin.
Himanshun työpanos oli merkittävä KnowledgeFoundryn ja ZS Associatesin teknisissä tiimeissä. Hänen monipuoliset taitonsa ja omistautumisensa ovat tehneet hänestä luotettavan kehittäjän datatekniikan alalla.
Tärkein asiantuntemus
- OpenCV 4 vuotta
- Linux 5 vuotta
- LangChain 2 vuotta
Muut taidot
- Docker 3 vuotta
- FastAPI 2 vuotta
- ChatGPT API 2 vuotta
Valittu kokemus
Työllisyys
Data Engineer
InfoGain - 10 months
- Created a Data Warehouse solution utilizing AWS Redshift and AWS Glue, migrating an OLAP database from MS SQL Server.
- Established a DBT pipeline for ETL processes, transferring data between a MySQL warehouse and an activity database to a Neo4j graph database using native Python programming. The setup was implemented on an AWS Linux box with Neo4j running as a Docker container.
- Developed an ETL pipeline for conducting market basket analysis and other marketing statistics on millions of rows of transactional data. Utilized Redshift as a transactional database and populated it in a serverless fashion using Amazon Lambda functions in real time.
Tekniikat:
- Tekniikat:
- Python
- ETL
- Data Engineering
- AWS
Data Engineer
ZS Associates - 6 months
- Developed a pipeline to convert data into a structured format, enabling serving to Prodigy for ML-related tagging. The entire pipeline was constructed in a modular fashion using pure Python and shell scripting.
- Implemented data transformations in Python and stored the processed data in an Amazon S3 bucket for storage and accessibility.
Tekniikat:
- Tekniikat:
- Python
Data Engineer
KnowledgeFoundry - 5 years 5 months
- Automated the process of writing Hive queries for ETL of multiple tables (both one-time and incremental) by generating automated scripts.
- Read CSV files from folder locations and created tables, then performed incremental loads sequentially.
- Set up Snowflake as the primary storage solution for structured data and utilized DBT for ETL processes. Crafted SQL-based models to define transformation logic, ensuring flexibility with incremental loading and version control using DBT.
- Prepared transformed data for analysis using business intelligence tools, facilitating effortless insights discovery. Conducted regular checks in Snowflake and DBT to maintain data integrity and pipeline functionality.
- Designed and developed data pipelines to extract, transform, and load data from diverse sources into a centralized data warehouse.
Tekniikat:
- Tekniikat:
- ETL
- SQL
- Data Engineering
Koulutus
BSc.Information Technology
Dharmsinh Desai University · 2015 - 2019
Löydä seuraava kehittäjäsi päivien, ei kuukausien sisällä
Kun otat yhteyttä, järjestämme lyhyen 25 minuuttia kestävän tapaamisen, jonka aikana:
- Kartoitamme yrityksenne kehitystarvetta
- Kertoa prosessimme, jolla löydämme teille pätevän, ennakkotarkastetun kehittäjän verkostostamme
- Käymme läpi askeleet, joilla oikea ehdokas pääsee aloittamaan – useimmiten viikon sisällä