Ładowanie...

Umowę o pracę
- bo bezpieczeństwo
zatrudnienia dla każdego,
z nas jest superważne.

Zdrową równowagę
między pracą a życiem
osobistym

- bo nie samą
pracą człowiek żyje.

Pełny pakiet benefitów:
od kultury, sportu i wypoczynku, po korzystny fundusz emerytalny - bo Ty wiesz najlepiej, na czym Ci zależy.

Prywatną opiekę zdrowotną
na terenie całej Polski - bo zdrowie jest najważniejsze.

Co się stanie po kliknięciu "APLIKUJ"?
Jeśli Twoja aplikacja wzbudzi nasze zainteresowanie, rekruter PKO Banku Polskiego zadzwoni do Ciebie, żeby umówić się na rozmowę rekrutacyjną. Do usłyszenia!

Administratorem danych osobowych osób odpowiadających na niniejsze ogłoszenie będzie PKO Bank Polski z siedzibą w Warszawie przy Puławskiej 15, 02-515 („Spółka”). Dane będą przetwarzane w celu przeprowadzenia procesu rekrutacji, z zachowaniem zasad bezpieczeństwa obowiązujących w Spółce. Możliwy kontakt z Inspektorem Ochrony Danych: iod@pkobp.pl Szczegółowe zasady przetwarzania danych oraz Państwa uprawnienia wynikające z tego faktu, zostały opisane na formularzu rekrutacyjnym oraz na stronie internetowej Spółki, w zakładce dedykowanej ochronie danych (RODO).
To dobry dzień na aplikowanie! #ZajmijStanowisko.

DZIEŃ DOBRY W PRACY

W PKO Banku Polskim dbamy o to, aby każdy dzień w pracy był dla Ciebie dobry. Tworzymy pozytywną atmosferę, doceniamy efektywną współpracę, szanujemy Twój czas prywatny.

#ZajmijStanowisko

SPECJALISTA DS. INŻYNIERII DANYCH

Departament Analityki Danych
Miejsce pracy:  Warszawa

w PKO Banku Polskim masz na dzień dobry:

w PKO Banku Polskim masz na dzień dobry:

 

 

 

Na co dzień w naszym zespole:

  • będziesz pracować w środowisku Big Data on-premise (Hadoop) jak i chmurowym (Google Cloud Platform / Azure),
  • budujesz rozwiązania wykorzystujące algorytmy sztucznej inteligencji / uczenia maszynowego,
  • przetwarzasz i gromadzisz duże wolumeny danych w trybie stream oraz batch,
  • tworzysz od podstaw nową platformę analityczną w środowisku chmurowym,
  • zdobywasz kompetencje przy współpracy z ekspertami z obszaru BigData/ML/AI.

To stanowisko może być Twoje, jeśli:

  • masz wykształcenie wyższe matematyczne, informatyczne, ekonomiczne,
  • pracowałeś/aś na dużych zbiorach danych, np. budując procesy ETL lub przygotowując zapytania SQL,
  • znasz co najmniej jeden z języków programowania: Python/Scala/Java,
  • cenisz samodzielność, dokładność i terminowość w realizacji zadań, lubisz pracę zespołową,
  • chcesz rozwijać kompetencje w obszarze Big Data, tzn. w technologiach Spark, Kafka, PubSub, Kubernetes, NiFi, Dataflow, BigQuery.

Twoim dodatkowym atutem będzie:

  • doświadczenie w rozproszonym przetwarzaniu danych (np. Spark, Apache Beam, Dataflow lub podobne),
  • doświadczenie w przetwarzaniu strumieniowym (np. Kafka, PubSub, Spark Streaming lub podobne),
  • umiejętność budowy aplikacji uruchamianych w kontenarach (np. Docker, Kubernetes, OpenShift lub podobne),
  • wcześniejsza praca nad projektami dostarczanymi w trybie CI/CD (Gitlab CI/CD, Jenkins).