Amine T.

Data Engineer

Amine er Lead Data Engineer og Data Architect med otte års kommerciel erfaring inden for design og implementering af store dataplatforme. Han har specialiseret sig i cloudbaserede dataarkitekturer ved hjælp af Databricks, Spark og AWS og har stor ekspertise inden for Terraform, Airflow og CI/CD-automatisering.

Han leverer enterprise-grade data lakehouses og streaming-løsninger til organisationer som Vallourec, RATP og Société Générale, optimerer data pipelines, muliggør predictive maintenance og driver analytics modernization på tværs af AWS og Azure.

Amine er Databricks Certified Data Engineer Professional og brænder for at opbygge skalerbare, omkostningseffektive og sikre dataøkosystemer, der bygger bro mellem forretningsbehov og teknisk ekspertise.

Hovedekspertise

  • AWS
    AWS 4 år
  • Apache Spark
    Apache Spark 8 år
  • Terraform
    Terraform 4 år

Andre færdigheder

    Amine

    Amine T.

    France

    Match med udvikler her

    Udvalgt oplevelse

    Beskæftigelse

    • Data Architect | Lead Data Engineer

      Vallourec - 10 måneder

      • Designet og udviklet skalerbare ETL-pipelines ved hjælp af AWS Glue og Spark Scala til databehandling i stor skala.
      • Arkitektur og vedligeholdelse af AWS-infrastruktur (S3, Glue, Lambda, IAM, Step Functions) for at sikre pålidelighed og omkostningseffektivitet.
      • Opbygget CI/CD-pipelines og håndhævet tekniske standarder gennem kodegennemgange og styringspolitikker.
      • Implementerede datakvalitetskontroller, sporing af afstamning og adgangskontrol for at opretholde dataintegritet og -overholdelse.
      • Ledede et team på fem dataingeniører, der førte tilsyn med Terraform provisioning, Azure DevOps pipelines og Spark performance-optimering.
      • Samarbejdede med dataforskere om at implementere ML-modeller, der forbedrer aktivets effektivitet og reducerer nedetid.
      • Leverede QuickSight-dashboards, der muliggjorde sikker forretningsindsigt i realtid.

      Teknologier:

      • Teknologier:
      • Databricks Databricks
      • Python Python
      • SQL SQL
      • Terraform Terraform
      • DevOps DevOps
      • ETL ETL
      • Team Leading
      • PySpark PySpark
    • Data Architect | Lead Data Engineer

      RATP Group - 2 flere år

      • Designede og implementerede en Data Mesh-arkitektur på Databricks (AWS) og byggede styrede datalagre i Glue og Collibra.
      • Udviklet dataindtag og deling af pipelines i Spark/Scala og PySpark med fuld CI/CD-automatisering.
      • Oprettet Databricks-jobautomatiseringsværktøjer ved hjælp af Terraform og orkestrerede arbejdsgange via AWS MWAA.
      • Designede datapipelines til prædiktiv vedligeholdelse og analyse af passagerflow ved hjælp af Kafka, Spark og AWS Glue.
      • Implementeret overvågning af datakvalitet med Airflow og Great Expectations for at sikre høj datapålidelighed.
      • Samarbejdede med dataforskere om at operationalisere prognosemodeller til serviceoptimering.

      Teknologier:

      • Teknologier:
      • AWS AWS
      • Databricks Databricks
      • Apache Spark Apache Spark
      • Python Python
      • Apache Kafka Apache Kafka
      • SQL SQL
      • Terraform Terraform
      • DevOps DevOps
      • Data Engineering
      • Apache Airflow Apache Airflow
      • Data Modeling
      • Redshift Redshift
    • Data Engineer

      Société Générale - 3 flere år 3 måneder

      • Migrerede produktionsapplikationer fra HDP til Cloudera og oprettede og konfigurerede flere miljøer for at sikre en gnidningsløs overgang.
      • Udviklet CI/CD-pipelines og Terraform-jobs til at provisionere og skalere VM'er på tværs af miljøer.
      • Støttede ingeniørteams i hele migrationsfasen og sikrede minimal nedetid.
      • Udviklet og implementeret Spark Scala-biblioteker og orkestreret produktionsjobs med henblik på høj tilgængelighed.
      • Designet og implementeret NiFi-pipelines til indlæsning af data fra eksterne API'er.
      • Bygget dataindtag og transformationsrammer til markeds- og risikodatapipelines ved hjælp af Spark og Hadoop.
      • Automatiseret datakvalitetskontrol og implementeret sporing af afstamning ved hjælp af Apache Atlas.
      • Samarbejdede med kvanteteams for at forbedre risikomodellens datanøjagtighed og reducere ventetiden i downstream-analyser.
      • Optimerede HDFS- og Hive-baserede datasøer, hvilket forbedrede ydeevnen og lagringseffektiviteten.
      • Bidrag til automatisering af lovpligtig rapportering, der sikrer overholdelse af Basel III-standarder.

      Teknologier:

      • Teknologier:
      • Apache Spark Apache Spark
      • Python Python
      • SQL SQL
      • Scala Scala
      • Terraform Terraform
      • Data Engineering
      • Apache Hive Apache Hive
      • Hadoop Hadoop
      • Data Quality
    • Big Data Developer

      BNP Paribas - 1 år

      • Bygget Spark-baserede datapipelines og ETL-workflows i Talend og Kafka til rapportering i realtid om lovgivning og bekæmpelse af svindel.
      • Udviklet en AWS-baseret arkitektur, transformeret CSV-data til Parquet og optimeret Hive-tabeller til performance.
      • Automatiserede implementeringsworkflows med Jenkins og Ansible, der forbedrer udviklingseffektiviteten.
      • Oprettet Oozie-bundter og Spark Scala-jobs til at implementere forretningsregler og administrere data i Cassandra.
      • Indekserede data med Solr for at muliggøre hurtige søgefunktioner og understøttet produktionsimplementering og -overvågning.

      Teknologier:

      • Teknologier:
      • Apache Spark Apache Spark
      • Python Python
      • Apache Kafka Apache Kafka
      • SQL SQL
      • Apache Hive Apache Hive
      • ETL ETL
      • Hadoop Hadoop

    Uddannelse

    • BSc.Diplôme d'ingénieur, Ingénierie

      Tunisia Polytechnic School · 2014 - 2017

    • Standalone courseMathématiques-Physique

      IPEIN - Institut Préparatoire aux Études d'Ingénieur de Nabeul · 2012 - 2014

    Find din næste udvikler inden for få dage, ikke måneder

    Book en 25-minutters samtale, hvor vi:

    • udfører behovsafdækning med fokus på udviklingsopgaver
    • Forklar vores proces, hvor vi matcher dig med kvalificerede, godkendte udviklere fra vores netværk
    • beskriver de næste trin for at finde det perfekte match på få dage

    Lad os snakke om det