Dean N.
Data Engineer
Dean ist ein Dateningenieur mit fünf Jahren Berufserfahrung. Seine Hauptkompetenz liegt in der Entwicklung, dem Aufbau und der Pflege robuster Datenpipelines und Infrastrukturen.
Er ist sehr versiert im Umgang mit großen Datenmengen, in der Optimierung von Daten-Workflows und in der Gewährleistung der Genauigkeit und Zuverlässigkeit von Daten für Analysen und Berichte.
Er ist in der Lage, selbstständig zu arbeiten, kann sich aber ebenso gut in einem kollaborativen Teamumfeld behaupten.
Deans Leidenschaft für Technologie treibt ihn dazu, seine Fähigkeiten ständig zu verbessern und neue Tools und Methoden zu nutzen, die zu einer effektiveren Datenverwaltung und -analyse beitragen.
Hauptkompetenz
- Terraform 4 Jahre
- ETL 4 Jahre
- Python 4 Jahre
Andere Fähigkeiten
- Bash 4 Jahre
- Shell 4 Jahre
- Linux 4 Jahre
Ausgewählte Erfahrung
Beschäftigung
Data Engineer
King - 3 jahre 1 monat
- Nutzung von Airflow zur Entwicklung von ETL-Pipelines, Umwandlung von Daten aus Rohformaten in leicht nutzbare Formen für Einblicke.
- Einsatz von Cloud-Funktionen, Scheduler und Sheets zur Erstellung von ETL-Pipelines, die Eingaben von weniger technisch versierten Stakeholdern ermöglichen.
- Verbesserte Datenqualität und reduzierte Pipeline-Fehler durch die Erstellung von Überwachungs- und Alarmierungs-Dashboards mit GCP Cloud Monitoring.
- Entwicklung von Data-Warehouse-Tabellen mit Schwerpunkt auf Effizienz und kostengünstigen Abfragen unter Verwendung von Partitionierungs- und Clustering-Techniken.
- Verbesserte Wartbarkeit der Codebasis durch die Anwendung von DRY-Prinzipien und die Verwendung von Jinja, wo dies möglich ist.
- Verbesserung der CI/CD-Pipeline durch Integration von Tests für SQL-Skripte.
- Terraform verwendet, um GCP-Ressourcen programmatisch zu erstellen und zu verwalten.
Technologien:
- Technologien:
Terraform
ETL
Python
SQL
Google Cloud
Bash
Shell
Linux
Apache Airflow
Dataflow
- Data Engineering
Data Engineer
Inmarsat - 6 monate
- Nutzte eine Kombination aus EC2-Instanzen und Befehlszeile, um sich per SSH in lokale Rechner einzuwählen und CSVs in S3-Buckets zu übertragen.
- Wir haben Airflow durch Prefect ersetzt, um Daten zu transformieren und den Workflow-Management-Prozess zu optimieren.
- Verwendet DBT und Jinja, um Testskripte zu erstellen und das Data Warehouse zu konstruieren.
- Terraform verwendet, um GCP-Ressourcen programmatisch bereitzustellen.
Technologien:
- Technologien:
Terraform
Python
SQL
AWS
Bash
Data Engineer
LADbible Group - 1 jahr 1 monat
- Apache Beam / Google Dataflow zum Aufbau von Stapelverarbeitungspipelines verwendet.
- Automatisierte mehrere ETL-Pipelines, die Daten aus verschiedenen Quellen extrahierten, einschließlich Cloud-Speicher, Google Sheets und APIs, speziell für Snapchat- und Werbeeinnahmedaten mit Ausgaben in BigQuery-Tabellen oder Dashboards.
- Sicherstellung der Testbarkeit des Codes durch Verwendung von Pytest und Anwendung eines testgetriebenen Entwicklungsansatzes (TDD).
- Erstellung von Dashboards in Google Data Studio (GDS) und Einrichtung von Warnmeldungen in GCP zur Überwachung von Datenpipelines.
- Verwendung von Terraform zur Bereitstellung von Ressourcen auf GCP.
Technologien:
- Technologien:
Terraform
ETL
Python
SQL
Google Cloud
AWS
Bash
Shell
Linux
Apache Airflow
Dataflow
- Data Engineering
Data Analyst
Publicis Media - 6 monate
- Schrieb SQL-Abfragen für dimensionale Datenmodellierung in Power BI.
- Verwendung von Python (Pandas) zur Bearbeitung von Datensätzen für den Export in Excel.
- Erstellung von maßgeschneiderten Power BI-Berichten, um klare und präzise Einblicke in die Daten zu geben.
- Verwendung der DAX-Sprache in Power BI zur Transformation und Berechnung von Daten.
- ETL von Daten aus verschiedenen Quellen zur Erstellung von Datenmodellen, typischerweise in Form von Star-Schemata.
- Sie haben Daten aus verschiedenen Quellen entnommen, Beziehungen zwischen Datensätzen hergestellt und die Daten modelliert.
Technologien:
- Technologien:
Python
SQL
Pandas
Microsoft Power BI
Data Analyst
Veolia - 1 jahr 5 monate
- Nutzte eine Kombination aus Power BI und SQL, um Datenmodelle zu erstellen und aufschlussreiche Berichtsvisualisierungen zu entwickeln.
- Erstellte und übernahm die Verantwortung für Power BI-Anwendungen, überwachte und stellte den Zugang für wichtige Interessengruppen sicher.
- Anwendung von DAX in Power BI zur Erstellung von Berechnungen und Messungen auf Dashboards.
- Entwicklung von KPI-Berichten und Dashboards in Excel unter Verwendung von Daten, die aus SQL-Datenbanken importiert und aktualisiert werden.
- Extrahierte Daten aus SQL und führte Analysen in Excel unter Verwendung fortgeschrittener Formeln und Funktionen durch.
- Erstellung intelligenter Webanwendungen für Mitarbeiter unter Verwendung von in Esri ArcGIS importierten Daten.
- Erstellung effizienter und komplexer SQL-Abfragen unter Einbeziehung von Pivots, Joins und verschachtelten Abfragen.
Technologien:
- Technologien:
SQL
- Data Engineering
- Data Analytics
Microsoft Power BI
Ausbildung
BSc.Business Administration, Management and Operations
De Montfort University · 2009 - 2011
Finden Sie Ihren nächsten Entwickler innerhalb von Tagen, nicht Monaten
In einem kurzen 25-minütigen Gespräch würden wir gerne:
- Auf Ihren Bedarf bezüglich des Recruitments von Software-Entwicklern eingehen
- Unseren Prozess vorstellen und somit wie wir Sie mit talentierten und geprüften Kandidaten aus unserem Netzwerk zusammenbringen können
- Die nächsten Schritte besprechen, um den richtigen Kandidaten zu finden - oft in weniger als einer Woche