Data Engineer
dataplace.ai
Warsaw, PL
‎10 godz. temu
source : Just Join IT

Kubernetes (nice to have)

Docker (nice to have)

AWS (nice to have)

BigQuery (nice to have)

Python (regular)

Apache Spark (regular)

Codziennie kupujemy mnóstwo usług i produktów w świecie offline, sklepach na rogach ulic i centrach handlowych. Gdy jednak porównamy ile wiemy o kliencie tam, a ile w ecommerce, różnica jest diametralna.

Celem dataplace.ai (dawnego Placeme) jest jej zmniejszenie, przez dostarczanie unikalnych informacji o zachowaniu klientów offline , które pomagają firmom efektywnie reklamować się i inwestować.

W tym celu zbieramy terabajty danych z różnych źródeł i budujemy platformę, która dostarcza je w intuicyjnej formie.

  • Dataplace.ai dostarcza dane największym polskim i zagranicznym firmom, takim jak Coca-cola, Carrefour czy Empik . Projekt otrzymał nagrodę Aulery 2019 , która nagradza najbardziej prestiżowe i obiecujące startupy;
  • dotąd otrzymały ją m. in. Booksy, CallPage, CodersLab.

    Ponieważ dataplace.ai rozwija się na rynku polskim (i nie tylko), powiększamy nasz team. W tym momencie zespół składa się z 17 pomysłowych i aktywnych osób.

    Może dataplace.ai to firma dla Ciebie?

    Co będziesz robić?

  • Tworzyć skalowalne architektury danych dla przetwarzania i analizy ogromnych zbiorów danych
  • Pracować nad nowymi produktami opartymi o zbiory big data, w szczególności danych przestrzennych z lokalizacji telefonów komórkowych
  • Zarządzać bazami danych i środowiskiem chmurowym
  • Współpracować z zespołem programistów nad rozwojem backendu analitycznego aplikacji
  • Projektować, budować i utrzymywać złożone systemy data ingestion
  • Wspierać zespół w bieżących projektach dla klientów
  • Ściśle współpracować z kolegami z zespołu, w tym z menedżerami produktów, projektantami, analitykami produktów i naukowcami zajmującymi się danymi, aby zapewnić naszym użytkownikom jak jak najlepszy dostęp do kluczowych danych o zachowaniach klientów offline.
  • Czego od Ciebie oczekujemy?

  • Co najmniej 4-letniego doświadczenia w analizie danych / big data
  • Znajomości Databricks (Apache Spark)
  • Bardzo dobrej znajomości relacyjnych baz danych PostgreSQL
  • Doświadczenia pracy ze Snowflake, Citus (preferowane) lub Google BigQuery AWS Redshift lub innymi wieloklastrowymi bazami danych
  • Zaawansowanej znajomości Pythona + bibliotek
  • Podstawowej styczności z Dockerem lub Kubernetresem
  • Komunikatywnego angielskiego
  • Jeśli do tego :

  • Masz doświadczenie w Agile Scrum
  • Znasz AWS, Microsoft Azure
  • Spotkałeś się już z rozwiązaniami chmurowymi dla Big Data
  • Masz doświadczenie we wspieraniu Data Scientist (Machine Learning)
  • Jesteś zainteresowany data science i nowymi technologiami
  • Pracowałeś już z danymi przestrzennymi
  • To tym bardziej zapraszamy!

    Co oferujemy?

  • Wynagrodzenie w granicach widełek 10 000 16 000 zł netto (B2B lub UoP)
  • Pracę z ludźmi, którzy lubią to, co robią i siebie nawzajem
  • Formę umowy najbardziej Ci odpowiadającą - jesteśmy otwarci na wszystkie możliwości (B2B, UoP, zlecenie)
  • Indywidualnie dopasowany pakiet benefitów; powiedz nam czego oczekujesz, a my powiemy Ci, który spośród dostępnych pakietów możemy Ci zaoferować
  • Możliwość stałego podnoszenia kwalifikacji - Ty wybierasz, jakie szkolenie jest Ci najbardziej potrzebne
  • Lekcje języka portugalskiego oraz możliwość pracy z biura w Portugalii
  • Elastyczne godziny pracy oraz możliwość pracy w pełni zdalnej
  • Zgłoś tę pracę
    checkmark

    Thank you for reporting this job!

    Your feedback will help us improve the quality of our services.

    Aplikuj
    Mój adres email
    Klikając przycisk "Kontynuuj", wyrażam zgodę neuvoo na przetwarzanie moich danych i wysyłanie powiadomień e-mailem, zgodnie z zasadami przedstawionymi przez neuvoo. W każdej chwili mogę wycofać moją zgodę lub zrezygnować z subskrypcji.
    Kontynuuj
    Formularz wniosku