Amine T.

Data Engineer

Amine ist ein leitender Dateningenieur und Datenarchitekt mit acht Jahren kommerzieller Erfahrung in der Entwicklung und Implementierung großer Datenplattformen. Er hat sich auf Cloud-basierte Datenarchitekturen mit Databricks, Spark und AWS spezialisiert und verfügt über fundierte Kenntnisse in Terraform, Airflow und CI/CD-Automatisierung.

Er liefert unternehmenstaugliche Data Lakehouses und Streaming-Lösungen für Unternehmen wie Vallourec, RATP und Société Générale, optimiert Datenpipelines, ermöglicht vorausschauende Wartung und treibt die Modernisierung der Analytik über AWS und Azure voran.

Als Databricks Certified Data Engineer Professional ist Amine leidenschaftlich an der Entwicklung skalierbarer, kosteneffizienter und sicherer Datenökosysteme interessiert, die geschäftliche Anforderungen mit technischen Spitzenleistungen verbinden.

Hauptkompetenz

  • AWS
    AWS 4 Jahre
  • Apache Spark
    Apache Spark 8 Jahre
  • Terraform
    Terraform 4 Jahre

Andere Fähigkeiten

    Amine

    Amine T.

    France

    Erste Schritte

    Ausgewählte Erfahrung

    Beschäftigung

    • Data Architect | Lead Data Engineer

      Vallourec - 10 monate

      • Entwurf und Entwicklung skalierbarer ETL-Pipelines mit AWS Glue und Spark Scala für die Verarbeitung großer Datenmengen.
      • Architektur und Wartung der AWS-Infrastruktur (S3, Glue, Lambda, IAM, Step Functions), Gewährleistung von Zuverlässigkeit und Kosteneffizienz.
      • Aufbau von CI/CD-Pipelines und Durchsetzung technischer Standards durch Code-Reviews und Governance-Richtlinien.
      • Implementierung von Datenqualitätsprüfungen, Nachverfolgung der Datenabfolge und Zugriffskontrollen zur Wahrung der Datenintegrität und der Compliance.
      • Leitete ein Team von fünf Dateningenieuren und beaufsichtigte die Bereitstellung von Terraform, Azure DevOps-Pipelines und die Optimierung der Spark-Leistung.
      • Zusammenarbeit mit Datenwissenschaftlern bei der Bereitstellung von ML-Modellen zur Verbesserung der Anlageneffizienz und zur Reduzierung von Ausfallzeiten.
      • Bereitgestellte QuickSight-Dashboards, die sichere Geschäftseinblicke in Echtzeit ermöglichen.

      Technologien:

      • Technologien:
      • Databricks Databricks
      • Python Python
      • SQL SQL
      • Terraform Terraform
      • DevOps DevOps
      • ETL ETL
      • Team Leading
      • PySpark PySpark
    • Data Architect | Lead Data Engineer

      RATP Group - 2 jahre

      • Entwurf und Implementierung einer Data-Mesh-Architektur auf Databricks (AWS) und Aufbau von verwalteten Daten-Repositories in Glue und Collibra.
      • Entwicklung von Pipelines für Dateneingabe und -austausch in Spark/Scala und PySpark mit vollständiger CI/CD-Automatisierung.
      • Erstellung von Databricks Job-Automatisierungstools mit Terraform und Orchestrierung von Workflows über AWS MWAA.
      • Entwicklung von Datenpipelines für die vorausschauende Wartung und die Analyse von Passagierströmen mithilfe von Kafka, Spark und AWS Glue.
      • Wir haben die Überwachung der Datenqualität mit Airflow und Great Expectations eingeführt, um eine hohe Zuverlässigkeit der Daten zu gewährleisten.
      • Zusammenarbeit mit Datenwissenschaftlern zur Operationalisierung von Prognosemodellen für die Serviceoptimierung.

      Technologien:

      • Technologien:
      • AWS AWS
      • Databricks Databricks
      • Apache Spark Apache Spark
      • Python Python
      • Apache Kafka Apache Kafka
      • SQL SQL
      • Terraform Terraform
      • DevOps DevOps
      • Data Engineering
      • Apache Airflow Apache Airflow
      • Data Modeling
      • Redshift Redshift
    • Data Engineer

      Société Générale - 3 jahre 3 monate

      • Migriert Produktionsanwendungen von HDP zu Cloudera, erstellt und konfiguriert mehrere Umgebungen, um einen reibungslosen Übergang zu gewährleisten.
      • Entwicklung von CI/CD-Pipelines und Terraform-Jobs zur Bereitstellung und Skalierung von VMs in verschiedenen Umgebungen.
      • Unterstützung der technischen Teams während der gesamten Migrationsphase, um minimale Ausfallzeiten zu gewährleisten.
      • Entwicklung und Bereitstellung von Spark Scala-Bibliotheken und Orchestrierung von Produktionsaufträgen für hohe Verfügbarkeit.
      • Entwurf und Implementierung von NiFi-Pipelines für die Aufnahme von Daten aus externen APIs.
      • Entwicklung von Frameworks zur Datenaufnahme und -umwandlung für Markt- und Risikodaten-Pipelines mit Spark und Hadoop.
      • Automatisierte Datenqualitätsprüfungen und implementierte Abstammungsverfolgung mit Apache Atlas.
      • Zusammenarbeit mit Quant-Teams zur Verbesserung der Datengenauigkeit von Risikomodellen und zur Verringerung der Latenzzeit bei nachgelagerten Analysen.
      • Optimierte HDFS- und Hive-basierte Data Lakes, Verbesserung der Leistung und Speichereffizienz.
      • Beitrag zur Automatisierung der aufsichtsrechtlichen Berichterstattung, um die Einhaltung der Basel III-Standards zu gewährleisten.

      Technologien:

      • Technologien:
      • Apache Spark Apache Spark
      • Python Python
      • SQL SQL
      • Scala Scala
      • Terraform Terraform
      • Data Engineering
      • Apache Hive Apache Hive
      • Hadoop Hadoop
      • Data Quality
    • Big Data Developer

      BNP Paribas - 1 jahr

      • Erstellung von Spark-basierten Datenpipelines und ETL-Workflows in Talend und Kafka für die Echtzeit-Berichterstattung über gesetzliche Vorschriften und Betrugsbekämpfung.
      • Entwicklung einer AWS-basierten Architektur, Umwandlung von CSV-Daten in Parquet und Optimierung von Hive-Tabellen für die Leistung.
      • Automatisierte Deployment-Workflows mit Jenkins und Ansible zur Verbesserung der Entwicklungseffizienz.
      • Erstellung von Oozie-Bundles und Spark Scala-Jobs zur Implementierung von Geschäftsregeln und Verwaltung von Daten in Cassandra.
      • Indizierte Daten mit Solr, um schnelle Suchfunktionen zu ermöglichen und die Produktionsbereitstellung und -überwachung zu unterstützen.

      Technologien:

      • Technologien:
      • Apache Spark Apache Spark
      • Python Python
      • Apache Kafka Apache Kafka
      • SQL SQL
      • Apache Hive Apache Hive
      • ETL ETL
      • Hadoop Hadoop

    Ausbildung

    • BSc.Diplôme d'ingénieur, Ingénierie

      Tunisia Polytechnic School · 2014 - 2017

    • FortbildungMathématiques-Physique

      IPEIN - Institut Préparatoire aux Études d'Ingénieur de Nabeul · 2012 - 2014

    Finden Sie Ihren nächsten Entwickler innerhalb von Tagen, nicht Monaten

    In einem kurzen 25-minütigen Gespräch würden wir gerne:

    • Auf Ihren Bedarf bezüglich des Recruitments von Software-Entwicklern eingehen
    • Unseren Prozess vorstellen und somit wie wir Sie mit talentierten und geprüften Kandidaten aus unserem Netzwerk zusammenbringen können
    • Die nächsten Schritte besprechen, um den richtigen Kandidaten zu finden - oft in weniger als einer Woche

    Unterhalten wir uns