Rihab B.

Data Engineer

Rihab er dataingeniør med over 7 års erfaring fra regulerede brancher som detailhandel, energi og fintech. Hun har stor teknisk ekspertise inden for Python og AWS og yderligere færdigheder inden for Scala, datatjenester og cloud-løsninger.

Ud over sine tekniske evner har Rihab bred erfaring med ledelse og projektstyring. En af hendes vigtigste præstationer er at opbygge en datakurateringstjeneste, samtidig med at hun fungerede som Scrum Master, hvor hun med succes ledede et team og implementerede en ny datatjeneste ved hjælp af Scala.

Rihabs blanding af stærke tekniske færdigheder og ledelseserfaring gør, at hun passer godt til projekter i regulerede industrier.

Hovedekspertise

  • AWS S3
    AWS S3 5 år
  • ETL
    ETL 5 år
  • MLOps 2 år

Andre færdigheder

  • DevOps
    DevOps 3 år
  • Tableau
    Tableau 2 år
  • Machine Learning
    Machine Learning 2 år
Rihab

Rihab B.

Tunisia

Match med udvikler her

Udvalgt oplevelse

Beskæftigelse

  • Senior Data Engineer

    Data4Geeks - 2 flere år 11 måneder

    • Designet og implementeret datapipelines til både batch- og stream-behandling, optimeret dataflow og effektivitet;
    • Udforsket og implementeret datapipelines ved hjælp af AWS Glue og PySpark for at sikre skalerbarhed og robusthed;
    • Integreret Delta Lake i pipelines for at muliggøre deltabehandling og forbedre mulighederne for datahåndtering;
    • Udviklet jobskabeloner ved hjælp af Jinja for at strømline oprettelsen og styringen af databehandlingsjobs;
    • Opbygget og automatiseret datavalideringspipelines, der sikrer nøjagtigheden og pålideligheden af behandlede data;
    • Implementeret og konfigureret Trino for at lette effektiv dataadgang og -forespørgsel på tværs af forskellige kilder;
    • Forberedt omfattende dokumentation for hver komponent og hvert værktøj, der er udforsket, for at sikre vidensoverførsel og nem vedligeholdelse;
    • Brugte værktøjer som Python, PySpark, Glue (Jobs, Crawlers, Catalogs), Athena, AWS, MWAA (Airflow), Kubernetes, Trino og Jinja til at nå projektets mål.

    Teknologier:

    • Teknologier:
    • AWS AWS
    • Databricks Databricks
    • Apache Spark Apache Spark
    • Python Python
    • AWS S3 AWS S3
    • Terraform Terraform
    • MLOps
    • R (programming language) R (programming language)
    • AWS Athena AWS Athena
    • Unit Testing
    • Acceptance Testing
    • Machine Learning Machine Learning
    • Integration Testing
    • Pytest Pytest
    • AWS Glue AWS Glue
    • MLflow
  • Senior Data Engineer

    Data4Geeks - 2 flere år 11 måneder

    Design og implementering af en prognoseplatform - Engie (fransk global energivirksomhed)

    • Designede og implementerede en omfattende prognoseplatform, der var skræddersyet til den globale energisektor.
    • Udviklet datapipelines ved hjælp af Python og PySpark, der sikrer effektiv og skalerbar databehandling.
    • Orkestrerede job-workflows ved hjælp af Airflow og Databricks, optimering af opgavestyring og -udførelse.
    • Implementeret datatekniske processer ved hjælp af Databricks' Delta Live Tables (DLT) til robust datastyring.
    • Bygget og implementeret pipelines til behandling af datastrømme ved hjælp af DLT'er, hvilket muliggør databehandling i realtid.
    • Udviklede Feature Store API'er til interaktion med komponenter og skabte genanvendelige skabeloner for at standardisere processer.
    • Brugte MLflow til at opbygge, administrere og spore eksperimenter og maskinlæringsmodeller, hvilket sikrede streng eksperimentering.
    • Administrerede livscyklussen for ML-modeller ved hjælp af MLOps-teknikker og implementerede genanvendelige skabeloner for at sikre konsistens og effektivitet.
    • Oprettet dashboards til dataanalyse og visualisering, hvilket letter datadrevet beslutningstagning.
    • Udviklet API'er ved hjælp af .NET/C# for at eksponere data og sikre problemfri integration og tilgængelighed på tværs af systemer.
    • Anvendt værktøjer som Databricks, PySpark, Python, R, SQL, Glue, Athena, Kubernetes og Airflow til at levere en robust og skalerbar løsning.
  • AI/Data Engineer

    Data4Geeks - 1 år 11 måneder

    • Ledte projekter med fokus på at integrere Large Language Models (LLM) og AI-teknologier og drev innovation inden for organisationen;
    • Hjalp med at designe og implementere datamigrationsløsninger og sikrede sømløse overgange for forskellige kunder;
    • Udviklet integrationer og klienter til vektordatabaser ved at udnytte forskellige open source AI-værktøjer til at forbedre mulighederne;
    • Kommunikerede aktivt med kunder for at indsamle krav og sikre tilpasning til deres specifikke behov;
    • Brugte værktøjer som Python, Google Cloud Platform (GCP) og Datastax til at levere robuste løsninger.

    Teknologier:

    • Teknologier:
    • Cassandra Cassandra
    • Python Python
    • Google Cloud Google Cloud
    • TensorFlow TensorFlow
    • Git Git
    • LangChain LangChain
  • Software Engineering Manager/Senior Data ENGINEER

    Cognira - 6 måneder

    Building and supporting promotion planning demo solution

    • Developed generic data pipelines to transform raw client data into a format compatible with the data model of the promotion planning demo system;

    • Wrote scripts to generate meaningful business data, ensuring alignment with the needs of the application;

    • Collaborated with the science team to understand business requirements and determine the necessary data transformations to enhance data utility;

    • Designed and implemented a generic PySpark codebase that efficiently transforms data to fit the required data model;

    • Utilized tools such as PySpark, JupyterHub, Kubernetes, and Azure Data Lake to execute and support the project.

    Teknologier:

    • Teknologier:
    • Docker Docker
    • Databricks Databricks
    • Apache Spark Apache Spark
    • Maven Maven
    • Kubernetes Kubernetes
    • Scala Scala
    • Azure Azure
    • Azure Blob storage Azure Blob storage
    • Unit Testing
    • Acceptance Testing
    • Integration Testing
  • Senior Data Engineer

    Data4Geeks - 2 flere år 9 måneder

    Implementing and Migrating Data Pipelines, and Supporting Legacy Systems - SumUp (Fintech German Company)

    • Designed and implemented data pipelines for both batch and stream processing, optimizing data flow and efficiency;

    • Explored and implemented data pipelines using AWS Glue and PySpark, ensuring scalability and robustness;

    • Integrated Delta Lake into the pipelines to enable delta processing, enhancing data management capabilities;

    • Developed job templating using Jinja to streamline the creation and management of data processing jobs;

    • Built and automated data validation pipelines, ensuring the accuracy and reliability of processed data;

    • Deployed and configured Trino to facilitate efficient data access and querying across various sources;

    • Prepared comprehensive documentation for each component and tool explored, ensuring knowledge transfer and easy maintenance;

    • Utilized tools such as Python, PySpark, Glue (Jobs, Crawlers, Catalogs), Athena, AWS, MWAA (Airflow), Kubernetes, Trino, and Jinja to achieve project goals.

    Teknologier:

    • Teknologier:
    • PostgreSQL PostgreSQL
    • AWS AWS
    • Python Python
    • Terraform Terraform
    • AWS Athena AWS Athena
    • Jira Jira
    • Apache Airflow Apache Airflow
    • Snowflake Snowflake
    • AWS Glue AWS Glue
  • Software Engineering Manager/Senior Data ENGINEER

    Cognira - 3 flere år

    Building a Data Curation Platform

    • Implemented a platform designed to make building data pipelines generic, easy, scalable, and quick to assemble for any new client;

    • Prepared detailed design documents, architectural blueprints, and specifications for the platform;

    • Gathered and documented requirements, creating specific epics and tasks, and efficiently distributed work among team members;

    • Developed command-line and pipeline functionalities that enable chaining transformations, facilitating the creation of generic data pipelines;

    • Supported the management of metadata for various entities defined within the platform;

    • Conducted runtime analysis and optimized the performance of different platform functionalities;

    • Studied scalability requirements and designed performance improvement strategies to enhance the platform's robustness;

    • Built a PySpark interface to facilitate seamless integration with data science workflows.

    Teknologier:

    • Teknologier:
    • Scala Scala
    • Azure Blob storage Azure Blob storage
  • Software Engineering Manager/Senior Data ENGINEER

    Cognira - 4 flere år 11 måneder

    • Udviklet generiske datapipelines til at omdanne rå kundedata til et format, der er kompatibelt med datamodellen i demosystemet til kampagneplanlægning;
    • Skrev scripts til at generere meningsfulde forretningsdata og sikrede, at de var i overensstemmelse med applikationens behov;
    • Samarbejde med videnskabsteamet for at forstå forretningskrav og bestemme de nødvendige datatransformationer for at forbedre dataanvendelsen;
    • Designet og implementeret en generisk PySpark-kodebase, der effektivt transformerer data, så de passer til den krævede datamodel;
    • Brugte værktøjer som PySpark, JupyterHub, Kubernetes og Azure Data Lake til at udføre og understøtte projektet.

    Teknologier:

    • Teknologier:
    • Scala Scala
    • Azure Blob storage Azure Blob storage
  • Software Engineering Manager/Senior Data ENGINEER

    Cognira - 4 flere år 11 måneder

    • Ledte teamet med at opbygge datapipelines til at understøtte en detailhandlers løsning til planlægning af kampagner;
    • Deltog i møder med forretnings- og datavidenskabsteams for at forstå og identificere projektbehov;
    • Samarbejdede med teamet om at oversætte forretningskrav til brugbare epics og stories;
    • Designede og implementerede de identificerede forretningskrav og sikrede, at de var i overensstemmelse med projektets mål;
    • Udviklet og udført enhedstests for at sikre implementeringernes funktionelle korrekthed;
    • Oprettelse af en data loader-applikation ved hjælp af Scala Spark til at indlæse data fra Parquet-filer til Cosmos DB/Cassandra API;
    • Implementeret en online forecaster API ved hjælp af Scala, Akka og Docker for at muliggøre prognoser for kampagner i realtid;
    • Administrerede udrulningen af projektet på kundens Kubernetes-klynge og sørgede for problemfri drift og integration;
    • Brugte værktøjer som Scala, Spark, Azure Databricks, Azure Data Lake og Kubernetes til at nå projektmålene.
  • R&D Engineer

    Cognira - 1 år 8 måneder

    Project 1: Building a Speech Recognition Solution

    • Developed a speech recognition solution aimed at transforming retailers' questions and commands into actionable tasks executed against a user interface (UI);

    • Utilized TensorFlow, Python, AWS, and Node.js to design and implement the solution, ensuring seamless interaction between the speech recognition engine and the UI.

    Project 2: Design and Implementation of a Short Life Cycle Forecasting System

    • Prepared comprehensive design documents and conducted studies on existing AI solutions, with a focus on voice and speech recognition capabilities;

    • Collaborated with the team to prepare and collect relevant data for the project;

    • Executed the processes of data augmentation, validation, and transformation to extract essential information for forecasting purposes;

    • Contributed to building a user interface and integrated backend functionalities using tools such as TensorFlow, Python, AWS, JavaScript, Node.js, Scala, and Spark.

    Teknologier:

    • Teknologier:
    • Python Python
    • Scala Scala
    • Azure Blob storage Azure Blob storage
    • TensorFlow TensorFlow
    • Machine Learning Machine Learning
  • Fullstack Data Scientist

    Infor - 3 flere år 1 måned

    • Designed and structured the architecture for various components of a retail forecasting project;

    • Implemented and deployed key components, ensuring seamless functionality within the overall system;

    • Integrated all components, automating the processes and establishing an end-to-end batch process for streamlined operations;

    • Optimized the runtime and performance of each component, enhancing the system's overall efficiency;

    • Developed forecast comparison templates to facilitate the evaluation of forecast quality, aiding in accurate performance assessments;

    • Utilized Logicblox, Python, and Tableau Software to achieve project goals, ensuring high-quality results.

    Teknologier:

    • Teknologier:
    • Python Python
    • Data Science
    • Data Engineering
    • Machine Learning Machine Learning
    • Integration Testing
    • Tableau Tableau

Uddannelse

  • BSc.Computer Science

    National School Of Computer Science · 2011 - 2014

Find din næste udvikler inden for få dage, ikke måneder

Book en 25-minutters samtale, hvor vi:

  • udfører behovsafdækning med fokus på udviklingsopgaver
  • Forklar vores proces, hvor vi matcher dig med kvalificerede, godkendte udviklere fra vores netværk
  • beskriver de næste trin for at finde det perfekte match på få dage

Lad os snakke om det