Talha A.

Data Engineer

Talha Alkan ist Senior-Dateningenieur und verfügt über mehr als sechs Jahre Berufserfahrung. Er zeichnet sich insbesondere durch sein außerordentliches Engagement für seine Arbeit aus.

Talha Alkan schafft leidenschaftlich gern Wert aus Daten und baut resiliente Datenarchitekturen auf. Er hat Erfahrung mit den modernsten Data-Engineering-Technologien sowie Plattformen wie AWS, GCP, Databricks und vielen weiteren.

Er war in großen Unternehmen tätig und hat viele wesentliche Fähigkeiten und Kenntnisse gesammelt, mit denen er die IT-Welt und seine eigene Weiterentwicklung voranbringen kann.

Er ist hauptsächlich spezialisiert auf Data Engineering, Delta Lake, Big Data, OLTP & OLAP, Business Intelligence, Change Data Capture, MPP, RDMS, Datenmanagement, Datenanalyse, Data Warehousing, analytische Lösungen, Daten-Pipelines, maschinelles Lernen und Data Mesh.

Hauptkompetenz
  • Data Engineering 6 Jahre
  • Python
    Python 6 Jahre
  • AWS
    AWS 3 Jahre
Andere Fähigkeiten
  • Postman
    Postman 6 Jahre
  • REST API
    REST API 6 Jahre
  • Git
    Git 6 Jahre
Talha
Talha A.

Turkey

Erste Schritte

Ausgewählte Erfahrung

Beschäftigung

  • Leitender Dateningenieur

    DocPlanner - 2 jahre

    • Entwicklung und Implementierung von Datenmodellen und -architekturen;
    • Aufbau von Daten-Pipelines und ETL-Prozessen;
    • Sicherstellung der Datengenauigkeit, Konsistenz und Qualität;
    • Design und Optimierung von Datenbanken und Data Warehouses;
    • Bereitstellung technischer Expertise in den Bereichen Datenmanagement und -analyse;
    • Überwachung und Fehlerbehebung von Datensystemen und -prozessen;
    • Entwicklung von Datenvisualisierungs- und Berichterstattungs-Tools;
    • Mitarbeit an der Entwicklung datengesteuerter Produkte und Dienstleistungen;
    • Sicherstellung der Einhaltung der Datenschutz- und Sicherheitsvorschriften.

    Technologien:

    • Technologien:
    • Data Engineering
    • Python Python
    • AWS AWS
    • BigQuery BigQuery
    • Google Cloud Google Cloud
    • Databricks Databricks
    • ELT
    • SQL SQL
    • ETL ETL
    • MSSQL MSSQL
    • Apache Spark Apache Spark
    • Tableau Tableau
    • AWS S3 AWS S3
    • Data Analytics
    • Apache Airflow Apache Airflow
    • MySQL MySQL
    • PostgreSQL PostgreSQL
    • Postman Postman
    • REST API REST API
    • Soap
    • Git Git
    • Data Science
    • VPN
    • AWS VPC AWS VPC
    • SQLAlchemy SQLAlchemy
    • Pandas Pandas
  • Dateningenieur

    Turkcell - 3 jahre 5 monate

    • Dateningenieur bei Turkcell Enterprise Data Warehouse;
    • Entwicklung von zentraler ETL-Prozesse mit vielen verschiedenen Quellen und Technologien;
    • Entwicklung und Implementierung von ETL-Prozessen zur Datenintegration und -transformation;
    • Erkennung und Lösung von Datenqualitäts- und Konsistenzproblemen;
    • Entwicklung und Pflege von Datenmodellen und Datenwörterbüchern;
    • Entwicklung und Pflege von Datenbankschemata und SQL-Skripten;
    • Entwicklung und Umsetzung von Datensicherheits- und Zugriffskontrollen;
    • Bereitstellung von technischem Know-how und Unterstützung in datenbezogenen Fragen.

    Technologien:

    • Technologien:
    • Data Engineering
    • Python Python
    • ELT
    • SQL SQL
    • ETL ETL
    • MSSQL MSSQL
    • PL/SQL PL/SQL
    • Apache Spark Apache Spark
    • AB Initio AB Initio
    • Data Analytics
    • Bitbucket Bitbucket
    • MySQL MySQL
    • Hadoop Hadoop
    • Apache Hive Apache Hive
    • Oracle Oracle
    • PostgreSQL PostgreSQL
    • Postman Postman
    • Teradata Teradata
    • REST API REST API
    • Soap
    • Git Git
    • Data Science
    • Data Modeling
    • T-SQL T-SQL
  • Dateningenieur

    eBay - 9 monate

    • Maschinelles Lernen;
    • Optimierung des Suchmaschinen-Algorithmus von eBay;
    • Design und Entwicklung von Daten-Pipelines zur Ingestion, Verarbeitung und Analyse großer Datenmengen;
    • Aufbau und Wartung der Dateninfrastruktur für Maschinenlernmodelle und -algorithmen;
    • Zusammenarbeit mit Datenwissenschaftler:innen und Analyst:innen zur Ermittlung und Umsetzung datenbasierter Lösungen;
    • Entwicklung und Pflege von Datenmodellen, Datenbanken und Data Warehouses;
    • Entwicklung und Optimierung von Workflows zur Datenverarbeitung und -analyse;
    • Implementierung von Datenqualität und Konsistenzprüfungen;
    • Fehlerbehebung und Lösung datenbezogener Probleme;
    • Optimierung der Suchmaschinen-Algorithmen zur Verbesserung der Suchrelevanz und Genauigkeit;
    • Entwicklung und Pflege von APIs für Datenzugriff und -integration.

    Technologien:

    • Technologien:
    • Data Engineering
    • Python Python
    • ELT
    • SQL SQL
    • ETL ETL
    • Machine learning Machine learning
    • Apache Spark Apache Spark
    • Data Analytics
    • Scala Scala
    • Hadoop Hadoop
    • Apache Hive Apache Hive
    • PostgreSQL PostgreSQL
    • Data Science

Ausbildung

  • MSc.Betriebswirtschaftslehre

    Marmara-Universität · 2019 - 2020

  • Fortbildungintensives Englischprogramm

    Universität von Kalifornien · 2013 - 2013

  • BSc.Informatik

    Ozyegin Universität · 2012 - 2017

Finden Sie Ihren nächsten Entwickler innerhalb von Tagen, nicht Monaten

Wir können Ihnen helfen, Ihr Produkt mit einem erfahrenen Entwickler schneller auszubauen. Alles ab 31,90 €/Stunde. Sie zahlen nur, wenn Sie mit Ihrer ersten Woche zufrieden sind.

In einem kurzen 25-minütigen Gespräch würden wir gerne:

  • Auf Ihren Bedarf bezüglich des Recruitments von Software-Entwicklern eingehen
  • Unseren Prozess vorstellen und somit wie wir Sie mit talentierten und geprüften Kandidaten aus unserem Netzwerk zusammenbringen können
  • Die nächsten Schritte besprechen, um den richtigen Kandidaten zu finden - oft in weniger als einer Woche

Sie wissen nicht, wo Sie anfangen sollen?

Unterhalten wir uns

Jetzt Entwickler:innen finden, die innerhalb von wenigen Tagen starten können. Ohne Risiko.