NEU
Proxify is bringing transparency to tech team performance based on research conducted at Stanford. An industry first, built for engineering leaders.
Learn more
Amine T.
Data Engineer
Amine ist ein leitender Dateningenieur und Datenarchitekt mit acht Jahren kommerzieller Erfahrung in der Entwicklung und Implementierung großer Datenplattformen. Er hat sich auf Cloud-basierte Datenarchitekturen mit Databricks, Spark und AWS spezialisiert und verfügt über fundierte Kenntnisse in Terraform, Airflow und CI/CD-Automatisierung.
Er liefert unternehmenstaugliche Data Lakehouses und Streaming-Lösungen für Unternehmen wie Vallourec, RATP und Société Générale, optimiert Datenpipelines, ermöglicht vorausschauende Wartung und treibt die Modernisierung der Analytik über AWS und Azure voran.
Als Databricks Certified Data Engineer Professional ist Amine leidenschaftlich an der Entwicklung skalierbarer, kosteneffizienter und sicherer Datenökosysteme interessiert, die geschäftliche Anforderungen mit technischen Spitzenleistungen verbinden.
Hauptkompetenz
- AWS 4 Jahre
- Apache Spark 8 Jahre
- Terraform 4 Jahre

Andere Fähigkeiten
Ausgewählte Erfahrung
Beschäftigung
Data Architect | Lead Data Engineer
Vallourec - 10 monate
- Entwurf und Entwicklung skalierbarer ETL-Pipelines mit AWS Glue und Spark Scala für die Verarbeitung großer Datenmengen.
- Architektur und Wartung der AWS-Infrastruktur (S3, Glue, Lambda, IAM, Step Functions), Gewährleistung von Zuverlässigkeit und Kosteneffizienz.
- Aufbau von CI/CD-Pipelines und Durchsetzung technischer Standards durch Code-Reviews und Governance-Richtlinien.
- Implementierung von Datenqualitätsprüfungen, Nachverfolgung der Datenabfolge und Zugriffskontrollen zur Wahrung der Datenintegrität und der Compliance.
- Leitete ein Team von fünf Dateningenieuren und beaufsichtigte die Bereitstellung von Terraform, Azure DevOps-Pipelines und die Optimierung der Spark-Leistung.
- Zusammenarbeit mit Datenwissenschaftlern bei der Bereitstellung von ML-Modellen zur Verbesserung der Anlageneffizienz und zur Reduzierung von Ausfallzeiten.
- Bereitgestellte QuickSight-Dashboards, die sichere Geschäftseinblicke in Echtzeit ermöglichen.
Technologien:
- Technologien:
Databricks
Python
SQL
Terraform
DevOps
ETL
- Team Leading
PySpark
Data Architect | Lead Data Engineer
RATP Group - 2 jahre
- Entwurf und Implementierung einer Data-Mesh-Architektur auf Databricks (AWS) und Aufbau von verwalteten Daten-Repositories in Glue und Collibra.
- Entwicklung von Pipelines für Dateneingabe und -austausch in Spark/Scala und PySpark mit vollständiger CI/CD-Automatisierung.
- Erstellung von Databricks Job-Automatisierungstools mit Terraform und Orchestrierung von Workflows über AWS MWAA.
- Entwicklung von Datenpipelines für die vorausschauende Wartung und die Analyse von Passagierströmen mithilfe von Kafka, Spark und AWS Glue.
- Wir haben die Überwachung der Datenqualität mit Airflow und Great Expectations eingeführt, um eine hohe Zuverlässigkeit der Daten zu gewährleisten.
- Zusammenarbeit mit Datenwissenschaftlern zur Operationalisierung von Prognosemodellen für die Serviceoptimierung.
Technologien:
- Technologien:
AWS
Databricks
Apache Spark
Python
Apache Kafka
SQL
Terraform
DevOps
- Data Engineering
Apache Airflow
- Data Modeling
Redshift
Data Engineer
Société Générale - 3 jahre 3 monate
- Migriert Produktionsanwendungen von HDP zu Cloudera, erstellt und konfiguriert mehrere Umgebungen, um einen reibungslosen Übergang zu gewährleisten.
- Entwicklung von CI/CD-Pipelines und Terraform-Jobs zur Bereitstellung und Skalierung von VMs in verschiedenen Umgebungen.
- Unterstützung der technischen Teams während der gesamten Migrationsphase, um minimale Ausfallzeiten zu gewährleisten.
- Entwicklung und Bereitstellung von Spark Scala-Bibliotheken und Orchestrierung von Produktionsaufträgen für hohe Verfügbarkeit.
- Entwurf und Implementierung von NiFi-Pipelines für die Aufnahme von Daten aus externen APIs.
- Entwicklung von Frameworks zur Datenaufnahme und -umwandlung für Markt- und Risikodaten-Pipelines mit Spark und Hadoop.
- Automatisierte Datenqualitätsprüfungen und implementierte Abstammungsverfolgung mit Apache Atlas.
- Zusammenarbeit mit Quant-Teams zur Verbesserung der Datengenauigkeit von Risikomodellen und zur Verringerung der Latenzzeit bei nachgelagerten Analysen.
- Optimierte HDFS- und Hive-basierte Data Lakes, Verbesserung der Leistung und Speichereffizienz.
- Beitrag zur Automatisierung der aufsichtsrechtlichen Berichterstattung, um die Einhaltung der Basel III-Standards zu gewährleisten.
Technologien:
- Technologien:
Apache Spark
Python
SQL
Scala
Terraform
- Data Engineering
Apache Hive
Hadoop
- Data Quality
Big Data Developer
BNP Paribas - 1 jahr
- Erstellung von Spark-basierten Datenpipelines und ETL-Workflows in Talend und Kafka für die Echtzeit-Berichterstattung über gesetzliche Vorschriften und Betrugsbekämpfung.
- Entwicklung einer AWS-basierten Architektur, Umwandlung von CSV-Daten in Parquet und Optimierung von Hive-Tabellen für die Leistung.
- Automatisierte Deployment-Workflows mit Jenkins und Ansible zur Verbesserung der Entwicklungseffizienz.
- Erstellung von Oozie-Bundles und Spark Scala-Jobs zur Implementierung von Geschäftsregeln und Verwaltung von Daten in Cassandra.
- Indizierte Daten mit Solr, um schnelle Suchfunktionen zu ermöglichen und die Produktionsbereitstellung und -überwachung zu unterstützen.
Technologien:
- Technologien:
Apache Spark
Python
Apache Kafka
SQL
Apache Hive
ETL
Hadoop
Ausbildung
BSc.Diplôme d'ingénieur, Ingénierie
Tunisia Polytechnic School · 2014 - 2017
FortbildungMathématiques-Physique
IPEIN - Institut Préparatoire aux Études d'Ingénieur de Nabeul · 2012 - 2014
Finden Sie Ihren nächsten Entwickler innerhalb von Tagen, nicht Monaten
In einem kurzen 25-minütigen Gespräch würden wir gerne:
- Auf Ihren Bedarf bezüglich des Recruitments von Software-Entwicklern eingehen
- Unseren Prozess vorstellen und somit wie wir Sie mit talentierten und geprüften Kandidaten aus unserem Netzwerk zusammenbringen können
- Die nächsten Schritte besprechen, um den richtigen Kandidaten zu finden - oft in weniger als einer Woche
