Сортировать:
- по релевантности
- по дате
- по зарплате
... распределенного хранения данных Apache Cassandra, Hadoop/HDFS, S3, форматы таблиц Hive ... на технологическом стеке Python, Spark, Hadoop/Hive/HDFS, Airflow Важен опыт ...
26.11.2025
... , Jupyter Hub, Git, Apache Airflow, Hadoop, PySpark, aiohttp, FastAPI, PostgreSQL, S3 ... Будет плюсом: Опыт работы с Hadoop, PySpark, Airflow Опыт работы с ...
01.12.2025
... данных и проверка их корректности Наши ожидания от кандидата -Оконченное образование -Опыт создания и поддержки ETL-процессов -Опыт с Hadoop/Hive, Apache Spark, HDFS -Опыт разработки на Python (от 3х лет), включая опыт работы с PySpark,FastAPI, Pydantic ...
26.11.2025
... нереляционными СУБД; -Знание SQL на продвинутом уровне (чтение и написание процедур); -Опыт работы с ClickHouse; -Знакомство с Hadoop, HDFS, Hive; -Опыт проектирования и реализации синхронных и асинхронных интеграций; -Опыт работы с Apache NiFi; Знакомство ...
26.11.2025
... , важно понимание основных принципов работы с большими данными, алгоритмов их обработки -Знание базовых алгоритмов и структур хранения данных, понимание принципов работы распределённых систем -Опыт работы с Hadoop-стеком, ClickHouse, Spark, Java, Airflow
16.12.2025
... решения для настройки процессов бесшовной интеграции решений CI/CD в хранилищах данных (Greenplum, Oracle, Hive, Airflow, Informatica, Hadoop, S3 и т.д.) -Разрабатывать платформу (веб приложение) DevOps для DO (python, flask + js) -Обеспечивать интеграции ...
01.12.2025
... роли DE, опыт оптимизации высоконагруженных приложений/ETL процессов; Опыт работы со Scala 3; Spark; Kafka + Spark Structured Streaming; Hadoop; Oozie; Yarn. Что мы предлагаем: Сумма оплаты возможна и больше, всё зависит от опыта, публикаций и результатов ...
26.11.2025
... в SuperSet Требования -Опыт работы с SQL и большими объёмами данных Опыт построения сложных ETL-процессов -Знание базовых алгоритмов и структур хранения данных, понимание принципов работы распределённых систем -Опыт работы с Hadoop-стеком, Spark, Java
16.12.2025
... с множеством сред для разработки и тестирования. Технологии: gRPC, Netty. Инфра: PG, Redis, Kafka, S3, Hadoop, Prometheus, Graylog, OpenTracing (Jaeger), Cassandra. Kubernetes для шедулинга и оркестрации. Стандартный джентельменский набор Jira и Confluence ...
01.12.2025
... . Задачи: Разработка с нуля MVP новой дата-платформы и инфраструктуры для ingest/transform; Мигрирование существующих пайплайнов с Hadoop/HDFS на новую архитектуру (S3, Kafka, Spark, ClickHouse); Работа с большими объёмами данных и высоконагруженными Kafka ...
16.12.2025
... и анализировать метрики Data Quality; -Писать тесты к полученным процессам Что мы ожидаем -Уверенные знания в SQL, Python; -Знание основных принципов формирования ETL-процессов; -Будет плюсом опыт работы с Postgres, Git, Hadoop, Pyspark, Airflow
01.12.2025