Umowę o pracę
- bo bezpieczeństwo
zatrudnienia dla każdego
z nas jest superważne.

Zdrową równowagę
między pracą a życiem
osobistym

- bo nie samą
pracą człowiek żyje.

Pełny pakiet benefitów:
od kultury, sportu i wypoczynku, po korzystny fundusz emerytalny - bo Ty wiesz najlepiej, na czym Ci zależy.

Prywatną opiekę zdrowotną
na terenie całej Polski - bo zdrowie jest najważniejsze.

Pracę Hybrydową
– bo możesz pracować z domu lub z biura.

Co się stanie po kliknięciu "APLIKUJ"?
Jeśli Twoja aplikacja wzbudzi nasze zainteresowanie, rekruter PKO Banku Polskiego zadzwoni do Ciebie, żeby umówić się na rozmowę rekrutacyjną. Do usłyszenia!

Administratorem danych osobowych osób odpowiadających na niniejsze ogłoszenie będzie PKO Bank Polski z siedzibą w Warszawie przy Puławskiej 15, 02-515 („Spółka”). Dane będą przetwarzane w celu przeprowadzenia procesu rekrutacji, z zachowaniem zasad bezpieczeństwa obowiązujących w Spółce. Możliwy kontakt z Inspektorem Ochrony Danych: iod@pkobp.pl. Szczegółowe zasady przetwarzania danych oraz Państwa uprawnienia wynikające z tego faktu, zostały opisane na formularzu rekrutacyjnym oraz na stronie internetowej Spółki, w zakładce dedykowanej ochronie danych (RODO).
To dobry dzień na aplikowanie! #ZajmijStanowisko.

DZIEŃ DOBRY W PRACY

W PKO Banku Polskim dbamy o to, aby każdy dzień w pracy był dla Ciebie dobry. Tworzymy pozytywną atmosferę, doceniamy efektywną współpracę, szanujemy Twój czas prywatny.

Włącz podcast: Dzień dobry w pracy! i sprawdź, jakie projekty, wyzwania i możliwości zawodowe czekają na Ciebie w PKO Banku Polskim. Posłuchaj na YouTube lub Spotify​​​​​​​​​​​​​​.

#ZajmijStanowisko

EKSPERT DS. INŻYNIERII DANYCH ( SENIOR DEVELOPER)

Departament Analityki Danych
Miejsce Pracy:  Warszawa

w PKO Banku Polskim masz na dzień dobry:

w PKO Banku Polskim masz na dzień dobry:

 

 

 

Na co dzień w naszym zespole:

  • bierzesz udział w pracach nad realizacją inicjatyw Strategii Banku takich jak m.in. budowa i rozwój rozwiązań DMP/CDP, ML Ops, Hiperpersonalizacja,
  • programujesz w środowiskach chmurowym (Google Cloud Platform, komponenty m.in. Anthos / K8s, Redis, DataProc, BQ, PubSub) jak i Big Data on-premise (Hadoop, Spark, Kafka),
  • budujesz rozwiązania wykorzystujące m.in. algorytmy sztucznej inteligencji / uczenia maszynowego (przy współpracy z zespołem Data Science),
  • rozwijasz rozwiązania z zakresu automatyzacji procesów wdrożeń (Gitlab CI/CD),
  • zdobywasz nowe kompetencje przy współpracy z ekspertami z obszaru BigData / ML / AI / IT,
  • pracujesz w zespole stosującym najlepsze praktyki w procesie wytwarzania oprogramowania,
  • budujesz przepływy dużych wolumenów danych w trybie stream oraz batch.

To stanowisko może być Twoje, jeśli:

  • masz wykształcenie wyższe matematyczne, informatyczne, ekonomiczne,
  • swobodnie posługujesz jednym z języków programowania: Python / Scala / Java,
  • chcesz mieć realny wpływ na kształtowanie rozwiązań technologicznych w największym Polskim Banku,
  • cenisz samodzielność, dokładność i terminowość w realizacji zadań, lubisz pracę zespołową.

    Dodatkowym atutem będzie:
  • doświadczenie w rozproszonym przetwarzaniu danych (np. Apache Spark, Apache Beam, Dataflow lub podobne),
  • umiejętność budowy aplikacji uruchamianych w kontenerach (np. Docker, Kubernetes, OpenShift lub podobne),
  • wcześniejsza praca nad projektami dostarczanymi w trybie CI/CD (Gitlab CI/CD, Jenkins),
  • doświadczenie w przetwarzaniu strumieniowym (np. Kafka, PubSub, Spark Streaming lub podobne).