Alper B.
Data Engineer
Alper ist ein Dateningenieur mit 20 Jahren Erfahrung, einschließlich Fachwissen über SQL Server, Oracle und Cloud-Datenlösungen. In den letzten 5 Jahren hat er sich als AWS Data Engineer spezialisiert und nutzt Python, AWS Glue, PySpark und SQLMesh, um effiziente Datenpipelines zu entwerfen und zu optimieren.
Er hat ein sicheres Gespür für Daten in verschiedenen Bereichen, was es ihm ermöglicht, Herausforderungen vorauszusehen und proaktive Lösungen anzubieten. Er entwarf und implementierte ein Data Warehouse für ein türkisches Finanzinstitut, indem er API-Daten in eine skalierbare OLAP-Struktur integrierte und unabhängig ETL-Workflows erstellte.
Seine Fähigkeit, komplexe Konzepte klar zu kommunizieren, und sein proaktiver Ansatz zur Problemlösung machen ihn zu einer wertvollen Bereicherung für jedes Unternehmen.
Hauptkompetenz
- AWS Athena 5 Jahre
- MSSQL 7 Jahre
- T-SQL 5 Jahre
Andere Fähigkeiten
- Scrum 6 Jahre
- PostgreSQL 5 Jahre
- Terraform 3 Jahre
Ausgewählte Erfahrung
Beschäftigung
Data Engineer
Freelance - 1 jahr 5 monate
- Migriert historische Daten von MS Access zu Snowflake in AWS;
- Entwicklung von Python-Skripten und Lambda-Funktionen zum Abrufen von täglichen Daten aus Callcenter-Systemen über API-Aufrufe;
- Mitarbeit an der Entwicklung von SQL-Mesh-Modellen zur Umwandlung von Rohdaten in ein auswertbares Format;
- Erstellte Berichte und Visualisierungen mit Tableau.
- Verarbeitete Google Ads Daten mit GCP Dataform;
- Entwurf und Implementierung von ETL-Workflows mit Apache Airflow;
- Verwaltete das Looker-Repository und erstellte Dashboards mit LookML zur Datenvisualisierung.
Technologien:
- Technologien:
AWS Athena
Terraform
dbt
BigQuery
AWS S3
Dataflow
AWS
AWS Kinesis
AWS SQS
AWS Lambda
AWS Glue
ETL
Snowflake
- Data Engineering
SQL
Python
Apache Spark
Google Cloud
Data Engineer
Krakenflex - 2 jahre
- Entwurf und Entwicklung von metrischen Produktdatenmodellen mit LookML;
- Erstellung von Dashboards und Datenvisualisierungen in Looker zur Unterstützung von Geschäftseinblicken;
- Entwicklung und Pflege von AWS Glue-Workflows zur Verwaltung von ETL-Prozessen;
- Erstellung und Optimierung von Lambda-Funktionen mit Python für die Datenverarbeitung und Automatisierung;
- Entwicklung von Athena-SQL-Abfragen für eine effiziente Datenanalyse;
- Erstellung und Pflege von CloudFormation-Vorlagen zur Verwaltung von Infrastruktur als Code;
- Erstellung von Python-Skripten zur Rationalisierung von Datenanalyse- und Berichtsaufgaben;
- Fehlersuche und Behebung von Leistungsproblemen in ETL-Pipelines zur Gewährleistung einer optimalen Effizienz;
- Entwicklung und Pflege von AWS Glue-Aufträgen zur Datentransformation;
- Verwaltet AWS Glue Crawler, um Daten zu katalogisieren und für die Analyse vorzubereiten.
Technologien:
- Technologien:
AWS Athena
Terraform
AWS S3
AWS
AWS Kinesis
AWS SQS
AWS Lambda
AWS Glue
ETL
- Data Engineering
SQL
Python
Apache Spark
Data Engineer
Avios - 1 jahr 5 monate
- Erstellung von Dashboards und Datenvisualisierungen mit Amazon QuickSight zur Unterstützung der Entscheidungsfindung;
- Entwicklung und Pflege von AWS Glue-Workflows zur Verwaltung und Automatisierung von Datenverarbeitungsaufgaben;
- Entwicklung und Pflege von Lambda-Funktionen in Python zur Datenverarbeitung und Automatisierung;
- Erstellung und Optimierung von Athena-SQL-Abfragen zur Erleichterung einer effizienten Datenanalyse
Technologien:
- Technologien:
AWS Athena
Tableau
Terraform
AWS S3
AWS
AWS Kinesis
AWS SQS
AWS Lambda
AWS Glue
ETL
Snowflake
- Data Engineering
SQL
Python
Apache Spark
Redshift
Data Engineer
Bluenet - 5 jahre 10 monate
- Entwicklung von Python-Skripten zur Übertragung von Daten zwischen lokalen und Cloud-Datenbanken, einschließlich Azure SQL und Google BigQuery;
- Erstellung von PowerShell-Skripten zur Automatisierung von Wartungsaufgaben für über 50 Datenbankserver;
- Entwicklung von gespeicherten Prozeduren und Funktionen zur Datentransformation nach Bedarf;
- Aufbau von Apache Airflow DAGs zur Rationalisierung von Datenübertragungen zwischen Systemen;
- Entwurf und Implementierung von Azure Data Factory-Jobs für effiziente ETL-Prozesse;
- Unterstützte Kundenentwicklungsteams bei der Datenbankentwicklung und -optimierung;
- Entwurf von Data-Warehouse-Strukturen zur Unterstützung einer skalierbaren und effizienten Datenanalyse;
- Aktive Wartung und Verwaltung der Datenbanken auf den Servern der Kunden vor Ort, um eine optimale Leistung zu gewährleisten.
Technologien:
- Technologien:
T-SQL
BigQuery
ETL
- Data Engineering
PostgreSQL
SQL
Apache Spark
Google Cloud
Redshift
Ausbildung
MSc.Astrophysics
Ege University · 2017 - 2020
Finden Sie Ihren nächsten Entwickler innerhalb von Tagen, nicht Monaten
In einem kurzen 25-minütigen Gespräch würden wir gerne:
- Auf Ihren Bedarf bezüglich des Recruitments von Software-Entwicklern eingehen
- Unseren Prozess vorstellen und somit wie wir Sie mit talentierten und geprüften Kandidaten aus unserem Netzwerk zusammenbringen können
- Die nächsten Schritte besprechen, um den richtigen Kandidaten zu finden - oft in weniger als einer Woche