Amine T.

Data Engineer

Amine est ingénieur et architecte de données en chef, avec huit ans d'expérience commerciale dans la conception et la mise en œuvre de plates-formes de données à grande échelle. Il est spécialisé dans les architectures de données basées sur le cloud utilisant Databricks, Spark, et AWS, et possède une forte expertise dans Terraform, Airflow, et l'automatisation CI/CD.

Il fournit des data lakehouses et des solutions de streaming pour des entreprises telles que Vallourec, la RATP et la Société Générale, en optimisant les pipelines de données, en permettant la maintenance prédictive et en conduisant la modernisation de l'analyse sur AWS et Azure.

Ingénieur de données certifié Databricks, Amine est passionné par la construction d'écosystèmes de données évolutifs, rentables et sécurisés qui font le lien entre les besoins de l'entreprise et l'excellence technique.

Principale expertise

  • AWS
    AWS 4 ans
  • Apache Spark
    Apache Spark 8 ans
  • Terraform
    Terraform 4 ans

Autres compétences

    Amine

    Amine T.

    France

    Commencer

    Expérience sélectionnée

    Emploi

    • Data Architect | Lead Data Engineer

      Vallourec - 10 mois

      • Conception et développement de pipelines ETL évolutifs utilisant AWS Glue et Spark Scala pour le traitement de données à grande échelle.
      • Architecte et mainteneur de l'infrastructure AWS (S3, Glue, Lambda, IAM, Step Functions), assurant la fiabilité et la rentabilité.
      • Vous avez une bonne connaissance de l'anglais, de l'allemand et de l'espagnol, et vous avez une bonne connaissance de l'anglais.
      • Mise en œuvre de contrôles de la qualité des données, de suivi de la lignée et de contrôles d'accès afin de préserver l'intégrité et la conformité des données.
      • Il a dirigé une équipe de cinq ingénieurs de données, supervisant le provisionnement de Terraform, les pipelines Azure DevOps et l'optimisation de la performance de Spark.
      • Collaborer avec des scientifiques de données pour déployer des modèles ML améliorant l'efficacité des actifs et réduisant les temps d'arrêt.
      • Fourniture de tableaux de bord QuickSight permettant d'obtenir des informations sécurisées et en temps réel sur l'activité de l'entreprise.

      Les technologies:

      • Les technologies:
      • Databricks Databricks
      • Python Python
      • SQL SQL
      • Terraform Terraform
      • DevOps DevOps
      • ETL ETL
      • Team Leading
      • PySpark PySpark
    • Data Architect | Lead Data Engineer

      RATP Group - 2 années

      • Conception et implémentation d'une architecture Data Mesh sur Databricks (AWS) et construction de référentiels de données gouvernées en Glue et Collibra.
      • Développement de pipelines d'ingestion et de partage de données en Spark/Scala et PySpark avec une automatisation CI/CD complète.
      • Création d'outils d'automatisation de tâches Databricks à l'aide de Terraform et orchestration de flux de travail via AWS MWAA.
      • Conception de pipelines de données pour la maintenance prédictive et l'analyse des flux de passagers à l'aide de Kafka, Spark et AWS Glue.
      • Mise en œuvre du contrôle de la qualité des données avec Airflow et Great Expectations, garantissant une grande fiabilité des données.
      • Collaborer avec des scientifiques de données pour rendre opérationnels des modèles de prévision pour l'optimisation des services.

      Les technologies:

      • Les technologies:
      • AWS AWS
      • Databricks Databricks
      • Apache Spark Apache Spark
      • Python Python
      • Apache Kafka Apache Kafka
      • SQL SQL
      • Terraform Terraform
      • DevOps DevOps
      • Data Engineering
      • Apache Airflow Apache Airflow
      • Data Modeling
      • Redshift Redshift
    • Data Engineer

      Société Générale - 3 années 3 mois

      • Migration d'applications de production de HDP à Cloudera, création et configuration d'environnements multiples pour assurer une transition en douceur.
      • Vous avez développé des pipelines CI/CD et des jobs Terraform pour provisionner et mettre à l'échelle des VMs à travers des environnements.
      • Soutien aux équipes d'ingénieurs tout au long de la phase de migration, en veillant à ce que les temps d'arrêt soient réduits au minimum.
      • Développement et déploiement de bibliothèques Spark Scala, et orchestration de jobs de production pour une haute disponibilité.
      • Conception et mise en œuvre de pipelines NiFi pour l'ingestion de données à partir d'API externes.
      • Vous avez développé des frameworks d'ingestion et de transformation de données pour les pipelines de données de marché et de risque à l'aide de Spark et Hadoop.
      • Contrôles automatisés de la qualité des données et mise en œuvre du suivi de la lignée à l'aide d'Apache Atlas.
      • Collaborer avec les équipes de quantification pour améliorer la précision des données du modèle de risque et réduire la latence dans les analyses en aval.
      • Optimisation des lacs de données basés sur HDFS et Hive, améliorant les performances et l'efficacité du stockage.
      • Contribuer à l'automatisation des rapports réglementaires, en veillant à la conformité avec les normes de Bâle III.

      Les technologies:

      • Les technologies:
      • Apache Spark Apache Spark
      • Python Python
      • SQL SQL
      • Scala Scala
      • Terraform Terraform
      • Data Engineering
      • Apache Hive Apache Hive
      • Hadoop Hadoop
      • Data Quality
    • Big Data Developer

      BNP Paribas - 1 an

      • Vous avez été en charge de la mise en place de pipelines de données et de workflows ETL basés sur Spark dans Talend et Kafka pour le reporting réglementaire et anti-fraude en temps réel.
      • Développement d'une architecture basée sur AWS, transformation de données CSV en Parquet et optimisation des tables Hive pour la performance.
      • Des flux de déploiement automatisés avec Jenkins et Ansible, améliorant l'efficacité du développement.
      • Création de bundles Oozie et de jobs Spark Scala pour implémenter des règles métier et gérer des données dans Cassandra.
      • Indexation des données avec Solr pour permettre des capacités de recherche rapide et prise en charge du déploiement et de la surveillance de la production.

      Les technologies:

      • Les technologies:
      • Apache Spark Apache Spark
      • Python Python
      • Apache Kafka Apache Kafka
      • SQL SQL
      • Apache Hive Apache Hive
      • ETL ETL
      • Hadoop Hadoop

    Éducation

    • License ès sciencesDiplôme d'ingénieur, Ingénierie

      Tunisia Polytechnic School · 2014 - 2017

    • FormationMathématiques-Physique

      IPEIN - Institut Préparatoire aux Études d'Ingénieur de Nabeul · 2012 - 2014

    Trouvez votre prochain développeur en quelques jours et non sur plusieurs mois

    Dans un court appel de 25 minutes, nous voulons:

    • Comprendre vos besoins en développement
    • Vous expliquez comment nous allons vous mettre en relation avec le développeur le mieux qualifié pour votre projet, sélectionné avec soin
    • Vous indiquez nos prochaines démarches afin de vous trouver le meilleur développeur, souvent en moins d'une semaine

    Contactez-nous