Сортировать:
- по релевантности
- по дате
- по зарплате
... владение ML- и DL-стеком Python: Pytorch, lightgbm/xgboost/catboost,Scikit-Learn, Pandas, Numpy; Умение работать с инструментами Spark, Hadoop, Hive; Опыт работы с MLFlow; Опыт работы с AirFlow/ArgoWorkflow от двух лет опыта в DS Будет большим плюсом ...
18.12.2025
... , дежурства Опыт обеспечения надежности data-платформ: S3, Iceberg, Hive Metastore, Kafka, Flink, Spark, Airflow, SQL-движки, Hadoop, Greenplum, ClickHouse Навыки перформанс-инжиниринга и планирования ресурсов (CPU/IO/сеть), поиск узких мест и деградаций ...
17.12.2025
... хранение моделей и конфигураций процессов изменения данных Trino, Dbt - разработка витрин Yandex Data processing (Apache Hadoop, Apache Spark) - разработка репликаций, сложные датасеты Kafka-connect - потоковые репликации Apache Airflow - оркестрация задач ...
17.12.2025
... и выгрузки, раздебаги Собирать требования Требования Понимание работы параллельных вычислений на кластере Опыт с Airflow, Spark, Hadoop, ClickHouse, YT (опционально) Знание Python: алгосы базовые (для понимания оптимального кода), классы и прочий сложный ...
17.12.2025
... AI в продуктовые линейки компании; Желательно: Знание Python, SQL, Bash; Навыки работы с big data технологиями: Apache Spark, Hadoop, Kafka; Знание принципов работы с ML-данными и понимание этапов жизненного цикла модели (MLLC); Опыт работы с MLOps ...
17.12.2025
... классификация, политики, согласование, аудит обеспечивать соответствие регуляторной политике совместно с Legal или IS Наш стек: Data: Hadoop (HDFS, Hive, YARN), Kafka, Spark, Airflow, ClickHouse, Vertica, Postgres, S3 (CEPH), SuperSet, DataHub Таск-трекеры ...
16.12.2025
... данных за 15 минут и современный технологический стек работы с данными, включая собственные сборки СУБД на базе Hadoop и Greenplum. Наша команда развивает инструменты и внедряет технологию разделенного Compute & Storage в рамках концепции Lakehouse ...
16.12.2025
... данных (DQC, профилирование данных, управление метаданными) Базовые знания методов обработки больших объемов данных (Big Data Hadoop/Hive, Spark, Kafka и пр.) будет плюсом Уверенные навыки анализа и декомпозиции требований заказчика Ответственность ...
15.12.2025
... Kubernetes. Профессиональные навыки: Глубокое знание Linux; Опыт работы с Kubernetes; Опыт работы с приложениями Big Data(Hadoop, Spark,S3 ); Архитектура кластера (Control Plane, Worker Nodes, etcd, kubelet, API Server); Основные объекты: Pods, Deployments ...
14.12.2025
... ; Знание теоретических и практических продвинутых методов машинного обучения; Опыт в LLM, RAG, Agents; Знание SQL, знакомство с hadoop-стэком (Spark, Hive), Airflow; Опыт мониторинга и поддержки моделей. Мы предлагаем: Официальное оформление с белой ЗП ...
06.12.2025
... актуальности документации по проекту. Работа с Big Data (опционально) Интеграция DWH с платформами Big Data (Hadoop, Spark, Snowflake, Google BigQuery). Оптимизация обработки больших объемов данных. Использование NoSQL-хранилищ (MongoDB, Cassandra, Redis ...
28.12.2025
... сервисов; Создавать хранилище фичей для ML. Вы нам подходите, если: Уверенно владеете Python и SQL; Есть опыт работы с Spark, Hadoop, Kafka, Greenplum, Clickhouse, S3 (Ceph, Minio); Опыт написание DAG-ов для Airflow; Опыт работы с Docker и K8S; Навыки ...
25.12.2025
... , практик управления, планирования. Используемые на проекте технологии: контейнеризация (RedHat, OpenShift) хранение и обработка данных HADOOP, Postgres Pro. Требования: опыт работы в качестве руководителя подразделения поддержки инфраструктуры от 2-х лет ...
25.12.2025
... , Redis). Опыт работы с SQL для управления данными. Опыт работы с объемами в 10TB+ Опыт работы с Hadoop кластером будет плюсом Мы предлагаем Полностью удаленная работа При необходимости помощь с релокацией. Компенсация коворкинга и курсов английского ...
25.12.2025
... бизнес-процессов и ML-пайплайнов Уверенное владение SQL и Spark, начальный уровень Python Понимание компонентов экосистемы Hadoop Навыки работы с требованиями и документацией Понимание структуры фичей и роли аналитики данных. Условия Комфортный современный ...
25.12.2025
... Data Analysts, бэкенд-разработчик и администратор инфраструктуры. Стэк Python, pandas, numpy, sklearn, XGBoost/LightGBM/CatBoost, matplotlib, Hadoop, Greenplum. Спектр задач Полный цикл разработки и внедрения ML-моделей: от сбора требований и исследования ...
25.12.2025
... совместной разработки (git, jira и т.п.). Будет плюсом: опыт работы со стеком Big Data (GreenPlum, Hadoop). Условия: комфортный современный офис рядом с м. Кутузовская гибридный формат ежегодный пересмотр зарплаты и годовая премия корпоративный спортзал ...
25.12.2025
... управления командой от 1 года Опыт в A/B тестировании, интерпретации результатов и улучшении подходов к оценке А/В тестов Знание SQL и Python для анализа данных Опыт работы с реляционными базами данных Будет плюсом: опыт работы с Hadoop stack, Hive, Spark
25.12.2025
... в продакшен и их оптимизации (для Middle/Senior) Знание основ работы с большими данными и опытом их обработки (Spark, Hadoop) Владение базовым набором навыков для разработки: bash, git, docker и тд Навыки работы с генеративными AI-моделями; опыт создания ...
25.12.2025
... отчетности. Уверенно владеете SQL, разбираетесь в OLAP-моделях и BI-инструментах. Имеете опыт работы с Greenplum, Hadoop, Data Lake или другими MPP-хранилищами. Понимаете основы Data Governance / Data Quality / Data Catalog. Обладаете системным ...
25.12.2025
от
160 000 руб.
... , и развивает Циан-помощника, делая его умнее и полезнее. Стек проекта: Python (Transformers, PyTorch, Numpy, Pandas, Sklearn, CatBoost); Hadoop (PySpark, Hive, Kafka); Airflow; Grafana; FineBI. Задачи: NLP задачи как в виде обучения моделей, так и в виде ...
25.12.2025
... Tech Lead/Team Lead от 1-го года; опыт работы с технологиями и инструментами для работы с большими данными: Hadoop , Spark (Pyspark) и др.; высшее техническое образование; хорошее знание SQL; знание английского языка на уровне чтения технической литературы ...
25.12.2025
... Angular, JavaScript, TypeScript, NodeJS DevOps и администрирование (Kubernetes, Docker, Terraform, CI/CD) Big Data (Hadoop, Apache Spark, Kafka, Airflow, ClickHouse и др.) Вендорские продукты: PostgreSQL, AstraLinux Автоматизированное тестирование ПО Наши ...
25.12.2025
... разработчика от 3 лет; Опыт работы с большими объёмами данных и высоконагруженными системами; Уверенные знания экосистемы Apache Hadoop (HDFS, Impala, Trino, Hive, Hue); Опыт работы с Apache Spark (PySpark, MLlib, Spark SQL); Знание форматов хранения ...
24.12.2025
до
450 000 руб.
... (backend / frontend, сервисная / микросервисная архитектура, API и т.д.) Опыт работы с объектными хранилищами и BigData стеком Hadoop/Hive/Spark; Опыт работы с очередями и шинами данных Kafka/RabbitMQ; Опыт построения ETL процессов и витрин данных; Опыт ...
24.12.2025