Dimitrios M.

Big Data Engineer

Dimitrios est un ingénieur senior en informatique avec plus de cinq ans d’expérience dans la conception et la construction de grands pipelines de données à l’aide de Spark, Airflow, Python, et AWS. Il se spécialise dans le traitement distribué, l'optimisation ETL et les analyses natives du cloud, offrant des solutions à la fois efficaces et évolutives.

Il a contribué à la création de plates-formes de données dans les environnements eCommerce, fintech et d'entreprise, en travaillant avec des entreprises telles que Profitero+, EPAM et EY. Ses projets comprennent le réglage de la performance de Spark et une ingestion de données à haut volume sur le DME AWS et l’orchestration de flux de travail complexes avec Airflow.

Connu pour ses solides compétences de résolution de problèmes et sa communication claire, Dimitrios met constamment l'accent sur la fiabilité, l'efficacité et les pratiques d'ingénierie bien structurées dans chaque projet qu'il entreprend.

Principale expertise

  • SQL
    SQL 5 ans
  • Data Engineering 5 ans
  • AWS
    AWS 4 ans

Autres compétences

  • AWS Athena
    AWS Athena 2 ans
  • MySQL
    MySQL 1 ans
  • Snowflake
    Snowflake 1 ans
Dimitrios

Dimitrios M.

Germany

Commencer

Expérience sélectionnée

Emploi

  • Senior Big Data Engineer

    Profitero+ - 4 mois

    • Dirige les initiatives d'optimisation de ETL basées sur Spark, en réduisant l'empreinte des calculs et en assurant des ETA liées aux SLA pour les produits de données critiques.
    • Propriétaire de l'architecture et de l'implémentation de pipelines à ingestion à haut volume fonctionnant sur les clusters AWS EMR et Databricks.
    • Implémente le réglage des performances avancées, les stratégies de partitionnement, la mise en cache et le raffinement du plan d'exécution à travers les charges de travail PySpark et Scala Spark.
    • Conception de DAGs Airflow pour des processus d’extraction, de transformation, de préparation de modèles et de livraison.
    • Collabore avec des chercheurs de données et des équipes d'analyse pour normaliser la logique de transformation en cadres réutilisables.
    • Assurer la fiabilité de la production en améliorant la surveillance, l’enregistrement et les alertes à travers les charges de travail EMR, Snowflake et GCP.
    • Prise en charge de l’intégration entre équipes et forme des normes d’ingénierie pour les nouveaux produits de données.

    Les technologies:

    • Les technologies:
    • Apache Spark Apache Spark
    • Python Python
    • SQL SQL
    • AWS S3 AWS S3
    • Scala Scala
    • Google Cloud Google Cloud
    • Apache Airflow Apache Airflow
    • Snowflake Snowflake
    • ETL ETL
    • AWS EMR AWS EMR
  • Big Data Engineer

    Profitero+ - 1 an 7 mois

    • Conçu des emplois avancés de Spark à l'aide d'un cadre interne pour traiter les ensembles de données de détail multi-sources à l'échelle.
    • Développer des pipelines ETL complets – de l'ingestion brute (S3, APIs, flux de fournisseurs) au nettoyage, à la préparation et aux sorties de datamart.
    • Création d'algorithmes récursifs personnalisés pour optimiser une étape ETL goulot d'étranglement, améliorant la vitesse d'exécution et la stabilité.
    • Réglage de l'utilisation du processeur et de la mémoire, des configurations de l'exécuteur et des formats de stockage pour répondre aux ETA strictes.
    • Créé et entretenu par Airflow DAGs orchestrant des dizaines de tâches interdépendantes.
    • Collaboré avec les équipes de produits, de données et de clients sur les modèles d'intégration et d'alignement des exigences.
    • Une distribution sécurisée assurée des jeux de données finaux via les automations SFTP.

    Les technologies:

    • Les technologies:
    • Apache Spark Apache Spark
    • Python Python
    • SQL SQL
    • AWS S3 AWS S3
    • Scala Scala
    • Snowflake Snowflake
    • ETL ETL
    • AWS EMR AWS EMR
  • Senior Data Engineer

    Mantaro Brands - 3 mois

    • Conception et optimisation de pipelines d’ingestion et de transformation soutenant l’analyse des marchés et les opérations de marque.
    • Mise en œuvre de flux de travail basés sur Spark pour la prévision, l'analyse de la demande et la connaissance de la performance du produit.
    • Création de DAGs Airflow pour orchestrer les étapes ETL et les vérifications de validation.
    • Amélioration de la conception des schémas de Snowflake et des performances d'entrepôt pour la déclaration des cas d'utilisation.
    • Préparation et qualité des données assurées pour les intégrations internes d'analyse et de marché externe.

    Les technologies:

    • Les technologies:
    • AWS AWS
    • Python Python
    • SQL SQL
    • Google Cloud Google Cloud
    • Apache Airflow Apache Airflow
    • Snowflake Snowflake
  • Big Data Developer

    EPAM Systems - 1 an 11 mois

    • Construit des travaux sophistiqués de Spark sur un cadre interne personnalisé, exécuté sur des grappes de DME AWS.
    • ETL conçu à partir de sources de données hétérogènes, de logique de nettoyage et de conservation appliquées, et de données finales livrées.
    • Des algorithmes récursifs implémentés pour des transformations complexes, accélérant considérablement les travaux de goulot d’étranglement.
    • Réalisation des performances de Spark et des DME, réduction des temps de travail pour répondre aux ETA fixes.
    • Développer des DAGs de flux d'air pour orchestrer des pipelines multi-couches.
    • Communiqué avec les clients et les équipes interfonctionnelles pour l’intégration des données et l’analyse des besoins.

    En tant que chef de développement:

    • Allocation de tâches avec des instructeurs, évaluation par les pairs et intégration pour les nouveaux ingénieurs.
    • Fournir des conseils d'architecture et assurer l'alignement sur les normes d'ingénierie de l'entreprise.
    • Équipes soutenues avec une assistance technique pratique à travers Spark, Airflow et AWS EMR.

    Les technologies:

    • Les technologies:
    • AWS AWS
    • Apache Spark Apache Spark
    • Python Python
    • SQL SQL
    • Scala Scala
    • Apache Airflow Apache Airflow
    • ETL ETL
    • Team Leading
    • AWS EMR AWS EMR
  • Data Engineer / BI Developer

    AbbVie - 1 an

    • Contribution à la mise en œuvre de la Fonderie de Palantir pour la gouvernance, la modélisation et l'analyse des données de l'entreprise.
    • Des ensembles de données organisés, des flux de travail opérationnels et des pipelines gérés au sein de Foundry.
    • Développer des tables et des tableaux de bord prêts à l'analyse pour soutenir les opérations commerciales et réglementaires.
    • Collaboré en étroite collaboration avec les équipes de science des affaires et des données pour structurer des ensembles de données de grande valeur.

    Les technologies:

    • Les technologies:
    • Python Python
    • SQL SQL
    • Data Modeling
    • Palantir Foundry Palantir Foundry

Éducation

  • Maîtrise ès sciencesPetroleum Engineering

    Heriot-Watt University · 2015 - 2017

  • License ès sciencesEngineer's degree, Pipeline Network Design, Construction and Operation

    Gubkin Russian State University of Oil and Gas (National Research University) · 2008 - 2013

Trouvez votre prochain développeur en quelques jours et non sur plusieurs mois

Dans un court appel de 25 minutes, nous voulons:

  • Comprendre vos besoins en développement
  • Vous expliquez comment nous allons vous mettre en relation avec le développeur le mieux qualifié pour votre projet, sélectionné avec soin
  • Vous indiquez nos prochaines démarches afin de vous trouver le meilleur développeur, souvent en moins d'une semaine

Contactez-nous