NEU
Proxify is bringing transparency to tech team performance based on research conducted at Stanford. An industry first, built for engineering leaders.
Learn more
Dimitrios M.
Big Data Engineer
Dimitrios ist ein Senior Big Data Engineer mit über fünf Jahren Erfahrung in der Entwicklung und beim Bau großer Datenpipelines mit Spark, Airflow, Python und AWS. Er ist spezialisiert auf verteilte Verarbeitung, ETL-Optimierung und Cloud-native Analytik und bietet effiziente und skalierbare Lösungen.
Er hat zu Datenplattformen in eCommerce, Fintech und Unternehmensumgebungen beigetragen und mit Unternehmen wie Profitero+, EPAM und EY zusammengearbeitet. Seine Projekte umfassen Spark-Performance-Tuning, die Aufnahme von Daten mit hohem Volumen auf AWS EMR und die Organisation komplexer Workflows mit Airflow.
Bekannt für seine ausgeprägten Fähigkeiten zur Problemlösung und klare Kommunikation, betont Dimitrios konsequent Zuverlässigkeit, Effizienz und gut strukturierte Engineering-Praktiken in jedem Projekt.
Hauptkompetenz
- SQL 5 Jahre
- Data Engineering 5 Jahre
- AWS 4 Jahre
Andere Fähigkeiten
- AWS Athena 2 Jahre
- MySQL 1 Jahre
- Snowflake 1 Jahre

Ausgewählte Erfahrung
Beschäftigung
Senior Big Data Engineer
Profitero+ - 4 monate
- Leads Spark-basierte ETL-Optimierungsinitiativen, Reduzierung der Rechenleistung und Sicherstellung von SLA-gebundenen ETAs für missionskritische Datenprodukte.
- Besitzt die Architektur und die Implementierung von Hochvolumenleitungen, die auf AWS EMR und Databricks Clustern laufen.
- Implementiert erweiterte Performance-Tuning, Partitionierungsstrategien, Caching und Ausführungsplan-Verfeinerung über PySpark- und Scala Spark-Workloads.
- Designs Airflow DAGs für vollständig orchestrierte Extraktion, Transformation, Modellvorbereitung und Lieferprozesse.
- Kooperiert mit Datenwissenschaftlern und Analyseteams, um Transformationslogik in wiederverwendbare Frameworks zu standardisieren.
- sichert die Produktionssicherheit durch die Verbesserung der Überwachung, Protokollierung und Alarmierung in EMR, Schneefloke und GCP Arbeitsbelastung.
- Unterstützt Teamübergreifende Integration und gestaltet Konstruktionsstandards für neue Datenprodukte.
Technologien:
- Technologien:
Apache Spark
Python
SQL
AWS S3
Scala
Google Cloud
Apache Airflow
Snowflake
ETL
AWS EMR
Big Data Engineer
Profitero+ - 1 jahr 7 monate
- Erstellen Sie fortgeschrittene Spark-Jobs mithilfe eines internen Frameworks zur Bearbeitung von Multi-Source-Einzelhandelsdatensätzen in Skala.
- Entwickelte komplette ETL-Pipelines – von Roheinnahme (S3, APIs, Vendor Feeds) bis hin zu Reinigung, Zubereitung und Datamart-Ausgängen.
- Erstellung rekursiver benutzerdefinierter Algorithmen zur Optimierung eines Engpass-ETL-Schritts zur Verbesserung der Ausführungsgeschwindigkeit und Stabilität.
- Angepasste CPU- und Speicherauslastung, ausführbare Konfigurationen und Speicherformate um strenge ETAs zu erfüllen.
- Erstellte und gewartete Airflow DAGs organisieren Dutzende voneinander abhängiger Aufgaben.
- Zusammenarbeit mit Produkt-, Daten- und Kundenteams bei Integrationsmustern und Anforderungsausrichtungen.
- Sicherte sichere Verteilung der Enddatensätze über SFTP-Automatisierungen.
Technologien:
- Technologien:
Apache Spark
Python
SQL
AWS S3
Scala
Snowflake
ETL
AWS EMR
Senior Data Engineer
Mantaro Brands - 3 monate
- Entworfene und optimierte Rohrleitungen zur Unterstützung von Marktplatzanalytik und Marken-Betrieb.
- Implementierte Spark-basierte Workflows für Prognosen, Bedarfsanalyse und Produkt-Performance-Einsichten.
- Erstellte Airflow DAGs, um ETL Schritte und Validierungsprüfungen zu koordinieren.
- Verbessertes Snowflake Schema Design und Lagerleistung für die Berichterstattung von Anwendungsfällen.
- Sicherte Datenreife und -qualität für interne Analysen und externe Marktplatz-Integrationen.
Technologien:
- Technologien:
AWS
Python
SQL
Google Cloud
Apache Airflow
Snowflake
Big Data Developer
EPAM Systems - 1 jahr 11 monate
- Erstellte anspruchsvolle Spark-Jobs auf einem benutzerdefinierten internen Rahmen, ausgeführt auf AWS EMR-Cluster.
- Entworfene ETL fließt aus heterogenen Datenquellen, angewandte Reinigungs- und Kuratierungslogik und liefert endgültige Datamarte.
- Implementierte rekursive Algorithmen für komplexe Transformationen, die Engpässe deutlich beschleunigen.
- Performed Spark und EMR Performance-Tuning, reduziert die Laufzeiten der Aufträge auf feste ETAs.
- Entwickelte Airflow DAGs zur Orchestrierung von mehrschichtigen Pipelines.
- Kommunikation mit Kunden und Crossfunktionalen Teams für Datenintegration und Anforderungsanalyse.
Als Entwickler-Führung:
- Led Task Allocation, Peer Reviews und Onboarding für neue Ingenieure.
- Bereitstellung von Architekturführung und Sicherstellung der Anpassung an Enterprise Engineering Standards.
- Unterstützte Teams mit praktischer technischer Unterstützung in Spark, Airflow und AWS EMR.
Technologien:
- Technologien:
AWS
Apache Spark
Python
SQL
Scala
Apache Airflow
ETL
- Team Leading
AWS EMR
Data Engineer / BI Developer
AbbVie - 1 jahr
- Beitrag zur Umsetzung von Palantir Gießerei für Unternehmensdatenverwaltung, -modellierung und -analytik.
- Erstellte kuratierte Datensätze, operative Arbeitsabläufe und geregelte Pipelines innerhalb der Gießerei.
- Entwickelte analytische Tabellen und Dashboards zur Unterstützung von kommerziellen und regulatorischen Betrieben.
- In enger Zusammenarbeit mit den Teams aus Wirtschaft und Informatik werden hochwertige Datensätze aufgebaut.
Technologien:
- Technologien:
Python
SQL
- Data Modeling
Palantir Foundry
Ausbildung
MSc.Petroleum Engineering
Heriot-Watt University · 2015 - 2017
BSc.Engineer's degree, Pipeline Network Design, Construction and Operation
Gubkin Russian State University of Oil and Gas (National Research University) · 2008 - 2013
Finden Sie Ihren nächsten Entwickler innerhalb von Tagen, nicht Monaten
In einem kurzen 25-minütigen Gespräch würden wir gerne:
- Auf Ihren Bedarf bezüglich des Recruitments von Software-Entwicklern eingehen
- Unseren Prozess vorstellen und somit wie wir Sie mit talentierten und geprüften Kandidaten aus unserem Netzwerk zusammenbringen können
- Die nächsten Schritte besprechen, um den richtigen Kandidaten zu finden - oft in weniger als einer Woche
