Знаешь SQL на хорошем уровне.
Ты подойдёшь, если
Есть опыт работы с одной или несколькими СУБД: Oracle, PostgreSQL, MSSQL, Greenplum и другими.
Умеешь работать с большими объемами данных, в том числе неструктурированными.
Можешь находить узкие места в коде обработки данных и оптимизировать запросы.
Что будет твоим в Точке
Комфортная зарплата до 200 000 ₽
Мы спросим твои ожидания и будем отталкиваться от них.
Сплочённая команда
То самое чувство команды, которая не перестаёт приятно удивлять своих клиентов.
Ты сможешь получить квалифицированную врачебную помощь даже за границей.
Страховка здоровья
Гибкие начало и окончание рабочего дня. Ты сам решаешь во сколько тебе начать работу.
Удобный график
Любая техника
Подбери всё необходимое под себя. Мак? Не вопрос! Два монитора? Да без проблем!
Бесплатное обучение
Мы ездим на IT-конференции, собираемся на митапы, раздаем призы на хакатонах и проходим курсы за счёт компании.
Чувствуй себя как дома
Современные и уютные опенспейсы со спортзалом и и библиотекой, кофе-поинтами и кухнями, а также множеством зон отдыха.
Разработчик хранилища данных
Что нужно делать
Тебе предстоит разрабатывать процессы сбора и обработки данных (ETL/ELT) и приводить данные в удобный для анализа и оптимальный с точки зрения производительности вид.

Мы строим аналитическое хранилище на основе данных внутренних сервисов и разнообразных внешних источников по концепции self-service BI. Пользователи хранилища — продвинутые аналитики со знанием SQL и Python и разработчики сервисов на основе данных.
Ищем очень способного программиста Oracle в команду BI. Цель команды — сделать Точку датацентричной и дать возможность проводить исследования, проверять гипотезы, задавать вопросы к данным, быстро составлять метрики и отчёты. И это без бюрократии и ограничений, которые могут ограничивать реализацию твоих идей, а также без нудных загрузок Excel и просьб сделать выборку.
Основное хранилище находится на Oracle. Для ETL/ELT мы используем Pentaho, Airflow или код на Python в виде микросервисов, плюс PL/SQL для обработки данных. Озеро данных базируется Hadoop (Hortonworks), а потоковая обработка происходит через Streamsets + Kafka.
Наша кухня
Есть опыт работы в создании ETL/ELT процессов.
Знаешь SQL на хорошем уровне.
Ты подойдёшь, если
Есть опыт работы с одной или несколькими СУБД: Oracle, PostgreSQL, MSSQL, Greenplum и другими.
Умеешь работать с большими объемами данных, в том числе неструктурированными.
Можешь находить узкие места в коде обработки данных и оптимизировать запросы.
Что будет твоим в Точке
Комфортная зарплата до 200 000 ₽
Мы спросим твои ожидания, определим хард и софт скилы на собеседовании и сделаем конкретное предложение после него.
Сплочённая команда
То самое чувство команды, которая не перестаёт приятно удивлять своих клиентов.
Ты сможешь получить квалифицированную врачебную помощь даже за границей.
Страховка здоровья
Гибкие начало и окончание рабочего дня. Ты сам решаешь во сколько тебе начать работу.
Удобный график
Любая техника
Подбери всё необходимое
под себя. Мак? Не вопрос!
Два монитора? Да без проблем!
Бесплатное обучение
Мы ездим на IT-конференции, собираемся на митапы, раздаем призы на хакатонах и проходим курсы за счёт компании.
Чувствуй себя как дома
Современные и уютные опенспейсы со спортзалом и и библиотекой, кофе-поинтами и кухнями, а также множеством зон отдыха.
Разработчик хранилища данных
Что нужно делать
Тебе предстоит разрабатывать процессы сбора и обработки данных (ETL/ELT) и приводить данные в удобный для анализа и оптимальный с точки зрения производительности вид.

Мы строим аналитическое хранилище на основе данных внутренних сервисов и разнообразных внешних источников по концепции self-service BI. Пользователи хранилища — продвинутые аналитики со знанием SQL и Python и разработчики сервисов на основе данных.
Ищем очень способного программиста Oracle в команду BI. Цель команды — сделать Точку датацентричной и дать возможность проводить исследования, проверять гипотезы, задавать вопросы к данным, быстро составлять метрики и отчёты. И это без бюрократии и ограничений, которые могут ограничивать реализацию твоих идей, а также без нудных загрузок Excel и просьб сделать выборку.
Основное хранилище находится на Oracle. Для ETL/ELT мы используем Pentaho, Airflow или код на Python в виде микросервисов, плюс PL/SQL для обработки данных. Озеро данных базируется Hadoop (Hortonworks), а потоковая обработка происходит через Streamsets + Kafka.
Наша кухня
Есть опыт работы в создании ETL/ELT процессов.
Пора делать крутые сервисы вместе
Оставь контакты, и мы позвоним в течение дня. Познакомимся поближе и обсудим наши проекты. Ты сможешь лично задать вопросы и получить ответы.
Оставляя заявку, вы соглашаетесь на обработку персональных данных.
Пора делать крутые сервисы вместе
Оставь контакты, и мы позвоним в течение дня. Познакомимся поближе и обсудим наши проекты. Ты сможешь лично задать вопросы и получить ответы.
Оставляя заявку, вы соглашаетесь на обработку персональных данных.