Dołącz do programu transformacji danych w T‑Mobile i współtwórz program, który zmienia sposób, w jaki pracujemy z danymi na co dzień. Pracuj z najnowocześniejszymi technologiami, miej realny wpływ na strategię danych i rozwijaj kompetencje przyszłości w kulturze otwartej na innowacje. Stwórz z nami przestrzeń na eksperymentowanie, szybkie prototypowanie i tworzenie rozwiązań, które kształtują przyszłość telekomunikacji napędzaną danymi.
Jako Data Engineer będziesz odpowiedzialny za projektowanie, implementację i utrzymanie rozwiązań danych w Google Cloud Platform (GCP). Twoja praca pozwoli wspierać procesy analityczne, biznesowe, aportowanie, rozwój modeli ML, aplikacji AI oraz innych aplikacji wykorzystujących dane w organizacji.
Dołącz do nowego, strategicznego projektu transformacji danych: przenosimy analitykę z onpremise do GCP, budując od zera architekturę i model danych z mocnym naciskiem na zwiększanie wartości biznesowej i CX naszych klientów.
Pracujemy na technologiach: GCP, Spark, Python, Kubernetes, BigQuery, Vertex AI, Terraform, Looker. Integrujemy różnorodne, wysokowolumenowe źródła danych, projektujemy warstwy przetwarzania w trybach streaming i batch, wdrażamy data governance, lineage, jakość i bezpieczeństwo danych, a także CI/CD i monitoring/SLO, aby skrócić drogę od pytania do odpowiedzi dla naszego biznesu i zbudować solidny fundament pod rozwiązania AI/LLM.
Szukamy osób, które łączą architekturę z praktyką inżynierską i rozumieniem potrzeb biznesowych, wnoszą proaktywność, energię i świeże pomysły, i chcą realnie współkształtować standardy, wzorce oraz kierunek rozwoju naszej platformy danych.
Mile widziane:
Dołącz do programu transformacji danych w T‑Mobile i współtwórz program, który zmienia sposób, w jaki pracujemy z danymi na co dzień. Pracuj z najnowocześniejszymi technologiami, miej realny wpływ na strategię danych i rozwijaj kompetencje przyszłości w kulturze otwartej na innowacje. Stwórz z nami przestrzeń na eksperymentowanie, szybkie prototypowanie i tworzenie rozwiązań, które kształtują przyszłość telekomunikacji napędzaną danymi.
Jako Data Engineer będziesz odpowiedzialny za projektowanie, implementację i utrzymanie rozwiązań danych w Google Cloud Platform (GCP). Twoja praca pozwoli wspierać procesy analityczne, biznesowe, aportowanie, rozwój modeli ML, aplikacji AI oraz innych aplikacji wykorzystujących dane w organizacji.
Dołącz do nowego, strategicznego projektu transformacji danych: przenosimy analitykę z onpremise do GCP, budując od zera architekturę i model danych z mocnym naciskiem na zwiększanie wartości biznesowej i CX naszych klientów.
Pracujemy na technologiach: GCP, Spark, Python, Kubernetes, BigQuery, Vertex AI, Terraform, Looker. Integrujemy różnorodne, wysokowolumenowe źródła danych, projektujemy warstwy przetwarzania w trybach streaming i batch, wdrażamy data governance, lineage, jakość i bezpieczeństwo danych, a także CI/CD i monitoring/SLO, aby skrócić drogę od pytania do odpowiedzi dla naszego biznesu i zbudować solidny fundament pod rozwiązania AI/LLM.
Szukamy osób, które łączą architekturę z praktyką inżynierską i rozumieniem potrzeb biznesowych, wnoszą proaktywność, energię i świeże pomysły, i chcą realnie współkształtować standardy, wzorce oraz kierunek rozwoju naszej platformy danych.
,[Projektowanie, rozwój i utrzymanie potoków danych (ETL/ELT) w środowisku GCP., Integracja danych z różnych źródeł (API, bazy, pliki) do narzędzi takich jak BigQuery i Cloud Storage., Projektowanie i optymalizacja modeli danych w hurtowniach danych (Kimball, Data Vault, Dimensional Modeling)., Implementacja rozwiązań streamingowych (np. Pub/Sub, Dataflow, Apache Beam)., Automatyzacja procesów wokół danych przy użyciu Cloud Composer (Airflow)., Zapewnienie wydajności, jakości, bezpieczeństwa i skalowalności danych., Współpraca z zespołami ds. analityki danych, Data Science oraz zespołami biznesowymi., Tworzenie dokumentacji technicznej i udział w code review., Monitorowanie i rozwiązywanie problemów wydajnościowych oraz optymalizacja kosztów w chmurze., Optymalizacja wydajności i kosztów implementowanych rozwiązań. Requirements: GCP, BigQuery, SQL, Cloud, Storage, PUB, Cloud Composer, Python, pandas, PySpark, Vault, IAM, KMS, DLP, Spark, dbt, Looker Studio, AI, Apache Kafka, Oracle