-
Warszawa, mazowieckie
Umowa o pracę
Pełny etat
Podobne oferty pracy
-
WYKŁADANIE TOWARU w markecie spożywczym - Warszawa ul. Meksykańska
Work&Profit sp. z o.o.- Warszawa
- umowa zlecenie
Dodana -
-
Wykładanie towaru w sklepie kosmetycznym PŁOCHOCIN
Work&Profit sp. z o.o.- Płochocin
- umowa zlecenie
Dodana
Dołącz do nas i weź udział w rozwoju nowoczesnej platformy danych opartej o architekturę Data Lakehouse. Szukamy doświadczonego Data Engineera / Analytics Engineera, który nie tylko świetnie czuje się w Databricks, ale również lubi pracę blisko biznesu – tłumaczenie potrzeb analitycznych na rozwiązania techniczne będzie kluczowym elementem tej roli.
To stanowisko dla osoby, która chce mieć realny wpływ na to, jak dane są modelowane, przetwarzane i wykorzystywane przez organizację.
Pracujemy zdalnie, mile widziane sporadyczne wizyty w Warszawie.
Data Engineer
Twój zakres obowiązków
- projektowanie i rozwój rozwiązań w architekturze Data Lakehouse (Databricks),
- tworzenie, optymalizacja i utrzymanie jobów danych w PySpark / Spark SQL,
- integracja danych z wielu źródeł (API, batch, streaming),
- modelowanie danych (modele konceptualne, logiczne i fizyczne) oraz ich implementacja w Databricks,
- ścisła współpraca z biznesem i analitykami w celu zrozumienia potrzeb raportowych i analitycznych,
- udział w ustalaniu standardów jakości danych, schematów i ich ewolucji,
- wdrażanie i rozwój procesów ETL / ELT w dużej skali,
- praca z Delta Lake, Unity Catalog, Delta Live Tables,
- rozwój i utrzymanie procesów CI/CD dla rozwiązań danych,
- dbanie o wydajność, skalowalność i bezpieczeństwo przetwarzania danych w chmurze.
Nasze wymagania
- doświadczenie w pracy z Data Lakehouse architecture,
- bardzo dobra znajomość Databricks, w tym:
- Delta Lake,
- Unity Catalog,
- Jobs, Workflows, Clusters, Notebooks,
- Asset Bundles, Repos,
- zaawansowana znajomość PySpark / Python Spark (tworzenie i optymalizacja jobów),
- bardzo dobra znajomość SQL, w tym optymalizacja zapytań w Databricks,
- doświadczenie z Delta Live Tables,
- praktyka w integracji danych z różnych źródeł (API, streaming, batch),
- doświadczenie w pracy w chmurze (Azure lub AWS),
- bardzo dobra znajomość koncepcji ETL / ELT oraz Big Data,
- praktyczna znajomość CI/CD (GitLab CI, GitHub Actions, Azure DevOps),
- doświadczenie w pracy z Unity Catalog, Delta Tables i zarządzaniu schematami danych,
- umiejętność odwzorowywania modeli danych (conceptual / logical / physical),
- znajomość najlepszych praktyk schema management, schema evolution i versioning.
- optymalizacja kosztów i wydajności w Databricks,
- testowanie i monitoring jobów danych (np. Great Expectations, logging, alerting),
- znajomość MLflow,
- doświadczenie z Airflow lub innym orkiestratorem zadań,
- udział w projektach migracji danych do Databricks,
- znajomość data lineage, data quality, data governance, Data Contracts,
- doświadczenie w pracy z danymi wrażliwymi i zasadami bezpieczeństwa danych,
- znajomość Terraform / Infrastructure as Code.
Aplikuj
Podobne oferty pracy
-
Obsługa kasy i dokładanie towaru w drogerii Raszyn
Work&Profit sp. z o.o.- Raszyn
- umowa zlecenie
Dodana -
-
Wykładanie towaru w sklepie kosmetycznym Płochocin
Work&Profit sp. z o.o.- Płochocin
- umowa zlecenie
Dodana
Praca alert - powiadomienia
Inny, Warszawa
Chcesz dowiedzieć się więcej o firmie?
Zobacz profil pracodawcyPolecani pracodawcy
Praca w sąsiednich miejscowościach
-
Praca Blizne Łaszczyńskiego
-
Praca Blizne Jasińskiego
-
Praca Lubiczów
-
Praca Opacz-Kolonia
-
Praca Ząbki
-
Praca Mory
-
Praca Raszyn
-
Praca Macierzysz
-
Praca Jaworowa
-
Praca Latchorzew
-
Praca Michałowice-Wieś
-
Praca Babice Nowe
-
Praca Jawczyce
-
Praca Klaudyn
-
Praca Kwirynów
-
Praca Mościska
-
Praca Falenty Nowe
-
Praca Bronisze
-
Praca Reguły
-
Praca Falenty