Rihab B.

Data Engineer

Rihab is een Data Engineer met meer dan 7 jaar ervaring in gereguleerde sectoren zoals retail, energie en fintech. Ze heeft sterke technische expertise in Python en AWS, met aanvullende vaardigheden in Scala, dataservices en cloudoplossingen.

Naast haar technische vaardigheden heeft Rihab ruime ervaring in leiderschap en projectmanagement. Een van haar belangrijkste prestaties is het bouwen van een datacuration service terwijl ze ook als Scrum Master optrad, waar ze met succes een team aanstuurde en een nieuwe dataservice implementeerde met behulp van Scala.

Rihab's mix van sterke technische vaardigheden en leiderschapservaring maakt haar zeer geschikt voor projecten in gereguleerde sectoren.

Hoofd expertise

  • AWS S3
    AWS S3 5 jaar
  • ETL
    ETL 5 jaar
  • MLOps 2 jaar

Andere vaardigheden

  • Tableau
    Tableau 2 jaar
  • Machine Learning
    Machine Learning 2 jaar
  • Snowflake
    Snowflake 1 jaar
Rihab

Rihab B.

Tunisia

Aan de slag

Geselecteerde ervaring

Dienstverband

  • Senior Data Engineer

    Data4Geeks - 2 jaar 8 maanden

    Ontwerp en implementatie van een prognoseplatform - Engie (Frans, wereldwijd energiebedrijf)

    • Ontwerp en implementatie van een uitgebreid voorspellingsplatform op maat van de wereldwijde energiesector.
    • Ontwikkelde datapijplijnen met Python en PySpark, voor efficiënte en schaalbare gegevensverwerking.
    • Orkestreerde taakworkflows met behulp van Airflow en Databricks, waarbij taakbeheer en -uitvoering werden geoptimaliseerd.
    • Implementeerde datatechnische processen met behulp van Delta Live Tables (DLT) van Databricks voor robuust datamanagement.
    • Het bouwen en implementeren van pipelines voor gegevensstroomverwerking met behulp van DLT's, waardoor real-time gegevensverwerking mogelijk werd.
    • Ontwikkelde Feature Store API's voor interactie met componenten en creëerde herbruikbare sjablonen om processen te standaardiseren.
    • Gebruikte MLflow voor het bouwen, beheren en volgen van experimenten en machine learning-modellen, om rigoureuze experimenten te garanderen.
    • De levenscyclus van ML-modellen beheerd met behulp van MLOps-technieken, herbruikbare sjablonen geïmplementeerd voor consistentie en efficiëntie.
    • Maak dashboards voor data-analyse en visualisatie, om datagestuurde besluitvorming mogelijk te maken.
    • Ontwikkelde API's met behulp van .NET/C# om gegevens te ontsluiten, voor naadloze integratie en toegankelijkheid tussen systemen.
    • Gebruikte tools zoals Databricks, PySpark, Python, R, SQL, Glue, Athena, Kubernetes en Airflow om een robuuste en schaalbare oplossing te leveren.

    Technologieën:

    • Technologieën:
    • Machine Learning Machine Learning
  • Software Engineering Manager/Senior Data ENGINEER

    Cognira - 6 maanden

    • Ontwikkelde generieke datapijplijnen om ruwe klantgegevens te transformeren naar een formaat dat compatibel is met het datamodel van het demosysteem voor promotieplanning;
    • Schreef scripts om zinvolle bedrijfsgegevens te genereren en zorgde ervoor dat deze in lijn waren met de behoeften van de applicatie;
    • Werkte samen met het wetenschappelijke team om de zakelijke vereisten te begrijpen en de nodige gegevenstransformaties te bepalen om de bruikbaarheid van gegevens te verbeteren;
    • Ontwerpen en implementeren van een generieke PySpark codebase die gegevens efficiënt transformeert zodat ze passen in het vereiste datamodel;
    • Gebruikte tools zoals PySpark, JupyterHub, Kubernetes en Azure Data Lake om het project uit te voeren en te ondersteunen.

    Technologieën:

    • Technologieën:
    • Azure Blob storage Azure Blob storage
  • AI/Data Engineer

    Data4Geeks - 1 jaar 11 maanden

    • Leidde projecten gericht op de integratie van Large Language Models (LLM) en AI-technologieën en stimuleerde innovatie binnen de organisatie;
    • Assisteerde bij het ontwerpen en implementeren van oplossingen voor gegevensmigratie en zorgde zo voor naadloze overgangen voor verschillende klanten;
    • Ontwikkelde integraties en clients voor vectordatabases, waarbij gebruik werd gemaakt van verschillende open-source AI-tools om de mogelijkheden te vergroten;
    • Actief communiceren met klanten om vereisten te verzamelen en ervoor te zorgen dat deze overeenkomen met hun specifieke behoeften;
    • Gebruikt tools zoals Python, Google Cloud Platform (GCP) en Datastax om robuuste oplossingen te leveren.
  • Senior Data Engineer

    Data4Geeks - 2 jaar 9 maanden

    • Ontwierp en implementeerde datapijplijnen voor zowel batch- als streamverwerking, waarbij de gegevensstroom en efficiëntie werden geoptimaliseerd;
    • Onderzoeken en implementeren van datapijplijnen met behulp van AWS Glue en PySpark, om schaalbaarheid en robuustheid te garanderen;
    • Delta Lake geïntegreerd in de pijplijnen om deltaverwerking mogelijk te maken, waardoor de mogelijkheden voor gegevensbeheer zijn verbeterd;
    • Taaksjablonen ontwikkeld met behulp van Jinja om het maken en beheren van gegevensverwerkingstaken te stroomlijnen;
    • Het bouwen en automatiseren van datavalidatiepijplijnen om de nauwkeurigheid en betrouwbaarheid van verwerkte gegevens te garanderen;
    • Trino geïmplementeerd en geconfigureerd om efficiënte gegevenstoegang en query's over verschillende bronnen mogelijk te maken;
    • Voorbereiding van uitgebreide documentatie voor elke component en tool die is onderzocht, om kennisoverdracht en eenvoudig onderhoud te garanderen;
    • Gebruikte tools zoals Python, PySpark, Glue (Jobs, Crawlers, Catalogs), Athena, AWS, MWAA (Airflow), Kubernetes, Trino en Jinja om projectdoelen te bereiken.
  • Software Engineering Manager/Senior Data ENGINEER

    Cognira - 4 jaar 11 maanden

    • Leidde het team bij het bouwen van datapijplijnen ter ondersteuning van de promotieplanningsoplossing van een retailer;
    • Deelgenomen aan vergaderingen met business- en data science-teams om de projectbehoeften te begrijpen en te identificeren;
    • Werkte samen met het team om business requirements te vertalen in bruikbare epics en stories;
    • Ontwierp en implementeerde de geïdentificeerde zakelijke vereisten en zorgde voor afstemming op de projectdoelen;
    • Ontwikkelen en uitvoeren van unit tests om de functionele correctheid van implementaties te garanderen;
    • Het maken van een data loader applicatie met behulp van Scala Spark om data te laden van Parquet bestanden naar Cosmos DB/Cassandra API;
    • Implementeerde een online voorspellings-API met behulp van Scala, Akka en Docker om real-time promotievoorspellingen mogelijk te maken;
    • Managede de implementatie van het project op het Kubernetes-cluster van de klant en zorgde voor een soepele werking en integratie;
    • Gebruikte tools zoals Scala, Spark, Azure Databricks, Azure Data Lake en Kubernetes om projectdoelen te bereiken.

    Technologieën:

    • Technologieën:
    • Azure Blob storage Azure Blob storage
    • Scala Scala

Educatie

  • BSc.Computer Science

    National School Of Computer Science · 2011 - 2014

Vind jouw volgende ontwikkelaar binnen enkele dagen, niet maanden

In een kort gesprek van 25 minuten:

  • gaan we in op wat je nodig hebt om je product te ontwikkelen;
  • Ons proces uitleggen om u te matchen met gekwalificeerde, doorgelichte ontwikkelaars uit ons netwerk
  • delen we de stappen met je om de juiste match te vinden, vaak al binnen een week.

Maak een afspraak