Dimitrios M.

Big Data Engineer

Dimitrios ist ein Senior Big Data Engineer mit über fünf Jahren Erfahrung in der Entwicklung und beim Bau großer Datenpipelines mit Spark, Airflow, Python und AWS. Er ist spezialisiert auf verteilte Verarbeitung, ETL-Optimierung und Cloud-native Analytik und bietet effiziente und skalierbare Lösungen.

Er hat zu Datenplattformen in eCommerce, Fintech und Unternehmensumgebungen beigetragen und mit Unternehmen wie Profitero+, EPAM und EY zusammengearbeitet. Seine Projekte umfassen Spark-Performance-Tuning, die Aufnahme von Daten mit hohem Volumen auf AWS EMR und die Organisation komplexer Workflows mit Airflow.

Bekannt für seine ausgeprägten Fähigkeiten zur Problemlösung und klare Kommunikation, betont Dimitrios konsequent Zuverlässigkeit, Effizienz und gut strukturierte Engineering-Praktiken in jedem Projekt.

Hauptkompetenz

  • SQL
    SQL 5 Jahre
  • Data Engineering 5 Jahre
  • AWS
    AWS 4 Jahre

Andere Fähigkeiten

  • AWS Athena
    AWS Athena 2 Jahre
  • MySQL
    MySQL 1 Jahre
  • Snowflake
    Snowflake 1 Jahre
Dimitrios

Dimitrios M.

Germany

Erste Schritte

Ausgewählte Erfahrung

Beschäftigung

  • Senior Big Data Engineer

    Profitero+ - 4 monate

    • Leads Spark-basierte ETL-Optimierungsinitiativen, Reduzierung der Rechenleistung und Sicherstellung von SLA-gebundenen ETAs für missionskritische Datenprodukte.
    • Besitzt die Architektur und die Implementierung von Hochvolumenleitungen, die auf AWS EMR und Databricks Clustern laufen.
    • Implementiert erweiterte Performance-Tuning, Partitionierungsstrategien, Caching und Ausführungsplan-Verfeinerung über PySpark- und Scala Spark-Workloads.
    • Designs Airflow DAGs für vollständig orchestrierte Extraktion, Transformation, Modellvorbereitung und Lieferprozesse.
    • Kooperiert mit Datenwissenschaftlern und Analyseteams, um Transformationslogik in wiederverwendbare Frameworks zu standardisieren.
    • sichert die Produktionssicherheit durch die Verbesserung der Überwachung, Protokollierung und Alarmierung in EMR, Schneefloke und GCP Arbeitsbelastung.
    • Unterstützt Teamübergreifende Integration und gestaltet Konstruktionsstandards für neue Datenprodukte.

    Technologien:

    • Technologien:
    • Apache Spark Apache Spark
    • Python Python
    • SQL SQL
    • AWS S3 AWS S3
    • Scala Scala
    • Google Cloud Google Cloud
    • Apache Airflow Apache Airflow
    • Snowflake Snowflake
    • ETL ETL
    • AWS EMR AWS EMR
  • Big Data Engineer

    Profitero+ - 1 jahr 7 monate

    • Erstellen Sie fortgeschrittene Spark-Jobs mithilfe eines internen Frameworks zur Bearbeitung von Multi-Source-Einzelhandelsdatensätzen in Skala.
    • Entwickelte komplette ETL-Pipelines – von Roheinnahme (S3, APIs, Vendor Feeds) bis hin zu Reinigung, Zubereitung und Datamart-Ausgängen.
    • Erstellung rekursiver benutzerdefinierter Algorithmen zur Optimierung eines Engpass-ETL-Schritts zur Verbesserung der Ausführungsgeschwindigkeit und Stabilität.
    • Angepasste CPU- und Speicherauslastung, ausführbare Konfigurationen und Speicherformate um strenge ETAs zu erfüllen.
    • Erstellte und gewartete Airflow DAGs organisieren Dutzende voneinander abhängiger Aufgaben.
    • Zusammenarbeit mit Produkt-, Daten- und Kundenteams bei Integrationsmustern und Anforderungsausrichtungen.
    • Sicherte sichere Verteilung der Enddatensätze über SFTP-Automatisierungen.

    Technologien:

    • Technologien:
    • Apache Spark Apache Spark
    • Python Python
    • SQL SQL
    • AWS S3 AWS S3
    • Scala Scala
    • Snowflake Snowflake
    • ETL ETL
    • AWS EMR AWS EMR
  • Senior Data Engineer

    Mantaro Brands - 3 monate

    • Entworfene und optimierte Rohrleitungen zur Unterstützung von Marktplatzanalytik und Marken-Betrieb.
    • Implementierte Spark-basierte Workflows für Prognosen, Bedarfsanalyse und Produkt-Performance-Einsichten.
    • Erstellte Airflow DAGs, um ETL Schritte und Validierungsprüfungen zu koordinieren.
    • Verbessertes Snowflake Schema Design und Lagerleistung für die Berichterstattung von Anwendungsfällen.
    • Sicherte Datenreife und -qualität für interne Analysen und externe Marktplatz-Integrationen.

    Technologien:

    • Technologien:
    • AWS AWS
    • Python Python
    • SQL SQL
    • Google Cloud Google Cloud
    • Apache Airflow Apache Airflow
    • Snowflake Snowflake
  • Big Data Developer

    EPAM Systems - 1 jahr 11 monate

    • Erstellte anspruchsvolle Spark-Jobs auf einem benutzerdefinierten internen Rahmen, ausgeführt auf AWS EMR-Cluster.
    • Entworfene ETL fließt aus heterogenen Datenquellen, angewandte Reinigungs- und Kuratierungslogik und liefert endgültige Datamarte.
    • Implementierte rekursive Algorithmen für komplexe Transformationen, die Engpässe deutlich beschleunigen.
    • Performed Spark und EMR Performance-Tuning, reduziert die Laufzeiten der Aufträge auf feste ETAs.
    • Entwickelte Airflow DAGs zur Orchestrierung von mehrschichtigen Pipelines.
    • Kommunikation mit Kunden und Crossfunktionalen Teams für Datenintegration und Anforderungsanalyse.

    Als Entwickler-Führung:

    • Led Task Allocation, Peer Reviews und Onboarding für neue Ingenieure.
    • Bereitstellung von Architekturführung und Sicherstellung der Anpassung an Enterprise Engineering Standards.
    • Unterstützte Teams mit praktischer technischer Unterstützung in Spark, Airflow und AWS EMR.

    Technologien:

    • Technologien:
    • AWS AWS
    • Apache Spark Apache Spark
    • Python Python
    • SQL SQL
    • Scala Scala
    • Apache Airflow Apache Airflow
    • ETL ETL
    • Team Leading
    • AWS EMR AWS EMR
  • Data Engineer / BI Developer

    AbbVie - 1 jahr

    • Beitrag zur Umsetzung von Palantir Gießerei für Unternehmensdatenverwaltung, -modellierung und -analytik.
    • Erstellte kuratierte Datensätze, operative Arbeitsabläufe und geregelte Pipelines innerhalb der Gießerei.
    • Entwickelte analytische Tabellen und Dashboards zur Unterstützung von kommerziellen und regulatorischen Betrieben.
    • In enger Zusammenarbeit mit den Teams aus Wirtschaft und Informatik werden hochwertige Datensätze aufgebaut.

    Technologien:

    • Technologien:
    • Python Python
    • SQL SQL
    • Data Modeling
    • Palantir Foundry Palantir Foundry

Ausbildung

  • MSc.Petroleum Engineering

    Heriot-Watt University · 2015 - 2017

  • BSc.Engineer's degree, Pipeline Network Design, Construction and Operation

    Gubkin Russian State University of Oil and Gas (National Research University) · 2008 - 2013

Finden Sie Ihren nächsten Entwickler innerhalb von Tagen, nicht Monaten

In einem kurzen 25-minütigen Gespräch würden wir gerne:

  • Auf Ihren Bedarf bezüglich des Recruitments von Software-Entwicklern eingehen
  • Unseren Prozess vorstellen und somit wie wir Sie mit talentierten und geprüften Kandidaten aus unserem Netzwerk zusammenbringen können
  • Die nächsten Schritte besprechen, um den richtigen Kandidaten zu finden - oft in weniger als einer Woche

Unterhalten wir uns