NEU
Proxify is bringing transparency to tech team performance based on research conducted at Stanford. An industry first, built for engineering leaders.
Learn more
Ivan P.
Data Engineer
Ivan ist ein erfahrener Dateningenieur mit über 10 Jahren Erfahrung in der Softwareentwicklung und in datengesteuerten Lösungen. Er verfügt über fundierte Kenntnisse in AWS-Cloud-Services, Kafka, Snowflake und Airflow, kombiniert mit starken Programmierkenntnissen in Java, Scala und Python.
Eine seiner wichtigsten Errungenschaften war die Entwicklung und Implementierung einer vollständig serverlosen Datenpipeline für Webanalysen und Kundenverfolgung - ein Projekt, das er als ausschlaggebend für seine Karriere als Data Engineer bezeichnet. Durch dieses Engagement hat Ivan umfangreiche Erfahrungen mit Python, AWS-Datendiensten, Daten-Streaming, Data Lakes und der Bereitstellung von Infrastruktur unter Verwendung von vorlagenbasiertem Code gesammelt.
Ivan ist bekannt für seine Anpassungsfähigkeit, sein Engagement für kontinuierliches Lernen und seine Fähigkeit, skalierbare, effiziente und leistungsstarke Datenlösungen zu liefern, die einen echten Einfluss auf das Geschäft haben.
Hauptkompetenz
- Snowflake 3 Jahre

- Apache Airflow 5 Jahre

- Python 5 Jahre

Andere Fähigkeiten
Ausgewählte Erfahrung
Beschäftigung
Data Engineer
JW Player (InPlayer) - 3 jahre
- Mitarbeit im Data-Engineering-Team bei JW Player, Entwicklung von Datenpipelines und eingebetteten Analysen für den Bereich Zahlungen und Abonnements.
- Implementierung von CDC-Pipelines mit AWS DMS, Integration von Daten aus PostgreSQL, MariaDB, Kinesis und Kafka in S3.
- Verarbeitet und orchestriert Daten in Snowflake mit Airflow und Snowflake Tasks und verwaltet Schemaentwicklung mit Sqitch.
- Datenvisualisierung durch ThoughtSpot und Looker, um die Zugänglichkeit der Daten und die Bereitstellung von Erkenntnissen zu verbessern.
- Überwachen der Systemleistung mit DataDog und Optimieren der Infrastrukturverwaltung mit GitLab, GitHub, CloudFormation und Docker.
Technologien:
- Technologien:
PostgreSQL
AWS
Apache Kafka
SQL
AWS Kinesis
DataDog
Apache Airflow
Snowflake
- Dimensional modeling
- Fact Data Modeling
- ThoughtSpot
AWS RDS
AWS CloudFormation
Data Engineer
Slice - 1 jahr 10 monate
- Mitarbeit im Data-Engineering-Team von Slice, einer schnell wachsenden B2B2C-Plattform, die über 20.000 US-amerikanische Kunden unterstützt. Pizzerien.
- Entwurf und Pflege von Live-Datenpipelines, Integration von CDC-Daten für Benutzer und Bestellungen in Databricks Delta Lake, DynamoDB (über OData) und S3.
- Nutzung der Confluent Kafka-Plattform mit Schema Registry für Stream Schema Evolution (AVRO).
- Angewandte KsqlDB und Kafka Streams (Scala) für Echtzeit Stream Processing.
- Implementierung von Kafka Connect für Systemintegrationen und Änderungsdatenerfassung.
- Nutzung von Databricks Notebooks für Spark-Batch-Verarbeitung in SQL, Scala und Python.
- Orchestrierte Databricks-Aufträge mit Airflow zur Workflow-Automatisierung.
- Einsatz von GitLab CI/CD, Docker und Terraform für die Bereitstellung und Verwaltung der Infrastruktur.
Technologien:
- Technologien:
AWS
Databricks
Apache Spark
Java
Python
Apache Kafka
SQL
Scala
Apache Airflow
Confluent
Data Engineer
Global Savings Group (for intertec.io) - 2 jahre 3 monate
- War als leitender Architekt und Entwickler im Webanalyse- und Tracking-Team bei der Global Saving Group tätig, einer Plattform, die Online-Shopper mit Einzelhändlern verbindet und mehr als 100 digitale Kunden weltweit bedient.
- Konzeption, Entwicklung und Pflege interner Produkte für Kundenverfolgung, Webanalyse und domänenübergreifende Konversions- und Transaktionsverfolgung.
- Wir haben vollständig serverlose IaC-Implementierungen auf AWS entwickelt, die eine skalierbare und kosteneffiziente Infrastruktur ermöglichen.
- Entwicklung und Orchestrierung von Datenpipelines für die ereignisbasierte und Batch-Dateneingabe unter Verwendung eines Data-Lake-Ansatzes.
- Verarbeitet große Mengen an unstrukturierten Rohdaten, führt Transformationen, Aggregationen und Data Warehousing durch.
- Bereitstellung von Echtzeit-Analysen zu aktiven Nutzern, Sitzungen und Kanälen zur Unterstützung von Geschäftseinblicken.
Technologien:
- Technologien:
MySQL
AWS
Java
Python
SQL
DynamoDB
AWS Kinesis
AWS Athena
Redshift
Apache Flink
AWS CloudFormation
AWS Data Catalog
Mulesoft-Entwickler
Admios - 1 jahr 10 monate
- Er leitete die Java-Entwicklung für mehrere Datenintegrationsprojekte unter Verwendung der Anypoint Mulesoft ESB-Plattform und entwickelte zertifizierte kundenspezifische Konnektoren, die auf dem Mulesoft Marketplace veröffentlicht wurden und Unternehmenssysteme wie Salesforce, Anaplan, Coupa und CallidusCloud unterstützen.
- Definierte und sammelte geschäftliche Anforderungen direkt mit den Produktverantwortlichen, Architekten und Managern des Kunden.
- Vorbereitung von Architekturdesign-Dokumentation und Lösungsvorschlägen als Leitfaden für die Projektumsetzung.
- Implementierung von End-to-End-Integrationslösungen, die Skalierbarkeit und Wartungsfreundlichkeit gewährleisten.
- Entwicklung und Durchführung von Funktions- und Integrationstests zur Überprüfung der Systemleistung und -zuverlässigkeit.
Technologien:
- Technologien:
Java
- MuleSoft Anypoint Platform
MuleSoft
Ausbildung
BSc.Software Engineering
European University - Faculty of informatics · 2005 - 2011
Finden Sie Ihren nächsten Entwickler innerhalb von Tagen, nicht Monaten
In einem kurzen 25-minütigen Gespräch würden wir gerne:
- Auf Ihren Bedarf bezüglich des Recruitments von Software-Entwicklern eingehen
- Unseren Prozess vorstellen und somit wie wir Sie mit talentierten und geprüften Kandidaten aus unserem Netzwerk zusammenbringen können
- Die nächsten Schritte besprechen, um den richtigen Kandidaten zu finden - oft in weniger als einer Woche
