Rihab B.

Data Engineer

Rihab är dataingenjör med över 7 års erfarenhet av att arbeta inom reglerade branscher som detaljhandel, energi och fintech. Hon har en stark teknisk kompetens inom Python och AWS, med ytterligare kunskaper inom Scala, datatjänster och molnlösningar.

Vid sidan av sina tekniska färdigheter har Rihab bred erfarenhet av ledarskap och projektledning. En av hennes viktigaste prestationer är att bygga en tjänst för datakurering samtidigt som hon fungerade som Scrum Master, där hon framgångsrikt ledde ett team och implementerade en ny datatjänst med hjälp av Scala.

Rihabs kombination av starka tekniska färdigheter och ledarskapserfarenhet gör att hon passar utmärkt för projekt inom reglerade branscher.

Huvudsaklig expertis

  • AWS S3
    AWS S3 5 år
  • ETL
    ETL 5 år
  • MLOps 2 år

Andra kompetenser

  • Tableau
    Tableau 2 år
  • Machine Learning
    Machine Learning 2 år
  • Snowflake
    Snowflake 1 år
Rihab

Rihab B.

Tunisia

Hitta en utvecklare

Utvald erfarenhet

Anställningar

  • Senior Data Engineer

    Data4Geeks - 2 år 8 månader

    Design och implementering av en prognosplattform - Engie (franskt globalt energiföretag)

    • Utformning och implementering av en omfattande prognosplattform som är skräddarsydd för den globala energisektorn.
    • Utvecklade datapipelines med hjälp av Python och PySpark, vilket säkerställde effektiv och skalbar databehandling.
    • Orkestrerade jobbarbetsflöden med hjälp av Airflow och Databricks, optimering av uppgiftshantering och utförande.
    • Implementerade datatekniska processer med hjälp av Databricks Delta Live Tables (DLT) för robust datahantering.
    • Byggde och distribuerade pipelines för dataströmsbearbetning med hjälp av DLT, vilket möjliggjorde databehandlingsfunktioner i realtid.
    • Utvecklade Feature Store API:er för interaktion med komponenter och skapade återanvändbara mallar för att standardisera processer.
    • Använde MLflow för att bygga, hantera och spåra experiment och maskininlärningsmodeller, vilket säkerställde rigorös experimentering.
    • Hanterade livscykeln för ML-modeller med hjälp av MLOps-tekniker och implementerade återanvändbara mallar för konsistens och effektivitet.
    • Skapade instrumentpaneler för dataanalys och visualisering, vilket underlättade datadrivet beslutsfattande.
    • Utvecklade API:er med hjälp av .NET/C# för att exponera data och säkerställa sömlös integration och tillgänglighet mellan olika system.
    • Använde verktyg som Databricks, PySpark, Python, R, SQL, Glue, Athena, Kubernetes och Airflow för att leverera en robust och skalbar lösning.

    Teknologier:

    • Teknologier:
    • Machine Learning Machine Learning
  • Software Engineering Manager/Senior Data ENGINEER

    Cognira - 6 månader

    • Utvecklade generiska datapipelines för att omvandla rå kunddata till ett format som är kompatibelt med datamodellen i demosystemet för kampanjplanering;
    • Skrev skript för att generera meningsfulla affärsdata, vilket säkerställde anpassning till applikationens behov;
    • Samarbetade med vetenskapsteamet för att förstå affärskraven och fastställa nödvändiga datatransformationer för att förbättra dataanvändningen;
    • Design och implementering av en generisk PySpark-kodbas som effektivt omvandlar data för att passa den nödvändiga datamodellen;
    • Använde verktyg som PySpark, JupyterHub, Kubernetes och Azure Data Lake för att genomföra och stödja projektet.

    Teknologier:

    • Teknologier:
    • Azure Blob storage Azure Blob storage
  • AI/Data Engineer

    Data4Geeks - 1 år 11 månader

    • Leda projekt med fokus på att integrera Large Language Models (LLM) och AI-teknik och driva innovation inom organisationen;
    • Hjälpte till med att utforma och implementera lösningar för datamigrering och säkerställde sömlösa övergångar för olika kunder;
    • Utvecklade integrationer och klienter för vektordatabaser, med hjälp av olika AI-verktyg med öppen källkod för att förbättra kapaciteten;
    • Aktivt kommunicerat med kunder för att samla in krav och säkerställa anpassning till deras specifika behov;
    • Använder verktyg som Python, Google Cloud Platform (GCP) och Datastax för att leverera robusta lösningar.
  • Senior Data Engineer

    Data4Geeks - 2 år 9 månader

    • Utformade och implementerade datapipelines för både batch- och strömbehandling, vilket optimerade dataflödet och effektiviteten;
    • Utforska och implementera datapipelines med hjälp av AWS Glue och PySpark, vilket säkerställer skalbarhet och robusthet;
    • Integrerade Delta Lake i pipelines för att möjliggöra deltabehandling och förbättra datahanteringsmöjligheterna;
    • Utvecklade jobbmallar med hjälp av Jinja för att effektivisera skapandet och hanteringen av databehandlingsjobb;
    • Bygga och automatisera pipelines för datavalidering för att säkerställa att bearbetade data är korrekta och tillförlitliga;
    • Distribuerade och konfigurerade Trino för att underlätta effektiv dataåtkomst och förfrågningar över olika källor;
    • Förberedde omfattande dokumentation för varje komponent och verktyg som undersöktes, vilket säkerställde kunskapsöverföring och enkelt underhåll;
    • Använde verktyg som Python, PySpark, Glue (Jobs, Crawlers, Catalogs), Athena, AWS, MWAA (Airflow), Kubernetes, Trino och Jinja för att uppnå projektmål.
  • Software Engineering Manager/Senior Data ENGINEER

    Cognira - 4 år 11 månader

    • Ledde teamet i att bygga datapipelines för att stödja en detaljhandlares lösning för kampanjplanering;
    • Deltagit i möten med affärs- och datavetenskapsteam för att förstå och identifiera projektbehov;
    • Samarbetade med teamet för att översätta affärskrav till handlingsbara epics och berättelser;
    • Utformade och implementerade de identifierade affärskraven och säkerställde att de överensstämde med projektmålen;
    • Utvecklat och utfört enhetstester för att säkerställa att implementationerna är funktionellt korrekta;
    • Skapade en dataladdningsapplikation med Scala Spark för att ladda data från Parquet-filer till Cosmos DB/Cassandra API;
    • Implementerade ett API för onlineprognoser med hjälp av Scala, Akka och Docker för att möjliggöra realtidsprognoser för marknadsföring;
    • Hanterade distributionen av projektet på kundens Kubernetes-kluster, vilket säkerställde smidig drift och integration;
    • Använde verktyg som Scala, Spark, Azure Databricks, Azure Data Lake och Kubernetes för att uppnå projektmålen.

    Teknologier:

    • Teknologier:
    • Azure Blob storage Azure Blob storage
    • Scala Scala

Utbildning

  • BSc.Computer Science

    National School Of Computer Science · 2011 - 2014

Hitta din nästa utvecklare inom ett par dagar

Ge oss 25 minuter av din tid, så kommer vi att:

  • Sätta oss in i dina utmaningar och behov
  • Berätta om våra seniora och beprövade utvecklare
  • Förklara hur vi kan matcha dig med precis rätt utvecklare

Låt oss ta ett kort digitalt möte.