Сортировать:
- по релевантности
- по дате
- по зарплате
... следить за трендами и искать идеи, которые можно применить в наших проектах разбирать гигантские залежы данных в hadoop, проводить аналитику полезного для моделей, собирать датасеты на сотни гигабайт изучать как разрабатываемые модели могут помочь бизнесу ...
29.12.2025
... : Опыт разработки продуктов, связанных с поиском, рекламными технологиями или рекомендательными системами. Знание технологий обработки больших данных, таких как Hadoop, Spark или аналогичные. Навыки работы с инструментами автоматизации ML-пайплайнов.
29.12.2025
... удобным. Стек: Пишем преимущественно на Python (Transformers, PyTorch, Numpy, Pandas, Sklearn, CatBoost). Активно используем экосистему Hadoop (PySpark, Hive, Kafka), у нас свой большой кластер Для автоматизации запусков наших пайплайнов используем Airflow ...
28.12.2025
... промышленной разработки на Python. Опыт участия в проектах по созданию и развитию Data Vault. Знание стека: Oracle/Hadoop/Teradata, SQL/Python/Spark/Hive, Airflow, Grafana/SAS. Главный принцип SkillStaff - Выбирай! РАЗНООБРАЗИЕ ПРОЕКТОВ. Выбирай из сотен ...
26.12.2025
... и исследование, формирование и проверка гипотез, проектирование модели данных, написание сложных SQL запросов) (PostgreSQL, Hadoop, Spark, Oracle SQL) понимание принципов жизненного цикла разработки и практический опыт создания python приложений enterprise ...
26.12.2025
... нестандартные подходы; Уверенное владение инструментами BI аналитики, а также знание MySQL, Google Big Query, Python, Hadoop, Git; Английский язык: B2 Условия: Обязательная релокация в европейское подразделение компании; Комфортабельный офис, отличный ...
25.12.2025
... , сайта и тд. Стек: Пишем преимущественно на Python (Numpy, SciPy, Pandas, sklearn, PyTorch). Активно используем экосистему Hadoop (PySpark, Hive, Kafka), у нас свой большой кластер Для автоматизации запусков наших пайплайнов используем Airflow Для ...
25.12.2025
... для визуализации отчетности) Понимание архитектуры данных и принципов построения корпоративных хранилищ (опыт работы с Oracle, Greenplum, Hadoop) Понимание основ процессов Data Governance / Data Quality Будет плюсом опыт участия в проекте по миграции DWH
25.12.2025
... Наши ожидания от кандидата: Знание SQL ( oracle, postgres) - уровень выше среднего, умение оптимизировать код Опыт работы с Hadoop (hdfs, hive, impala, sqoop, spark) Знание: Python Знание иструментов визуализации Power Bi, MS Olap Знание инструментов ...
25.12.2025
... работы с СУБД Oracle/PostgreSQL/MS SQL в качестве аналитика; Верхнеуровневое понимание современного стека Big Data (Hadoop, Greenplum, Kafka и пр.); Отличные навыки тестирования разработок объектов DWH; Хорошие навыки использования BI Условия: Конкурентный ...
25.12.2025
... собственных решений. Требования к нашему кандидату: Знание Python, SQL, Bash; Навыки работы с big data технологиями: Apache Spark, Hadoop,S3, Kafka; Знание принципов работы с ML-данными и понимание этапов жизненного цикла модели (MLLC); Опыт работы с MLOps ...
25.12.2025
... SQL и понимание принципов распределённой обработки данных; опыт работы со Spark Наш стек: Python, Git, PySpark, Hive, Hadoop, hdfs, Catboost, Fastapi, Airflow, Kafka, Openshift, Docker Условия Комфортный современный офис рядом с м. Кутузовская Ежегодный ...
25.12.2025
... Face, современные LLM-подходы). Понимание принципов работы с большими данными и распределёнными системами (Spark, Hadoop, потоковая обработка). Что мы предлагаем? Ежемесячное вознаграждение. Размер вознаграждения обсуждаем на собеседовании. Удалённое ...
25.12.2025
... 5 лет в разработке витрин данных, анализе качества данных или автоматизации процессов. Опыт руководства коллективом. Hadoop, PySpark, SQL, Python. Работа с большими объемами данных (миллионы записей). Опыт реализации проектов (внедрение инструментов ...
25.12.2025
... владение ML-стеком Python: lightgbm/xgboost/catboost, Scikit-Learn, Pandas, Numpy умение работать с инструментами Spark, Hadoop, Hive, Impala Условия: Стабильную работу в одном из крупнейших банков страны Сильное DS community, большое разнообразие рабочих ...
25.12.2025
... с техническими специалистами и бизнес-заказчиками. БУДЕТ ПЛЮСОМ 1. Опыт работы с системами управления базами данных (Hadoop); 2. Умение создавать визуализации данных с помощью различных инструментов (Matplotlib/Seaborn); 3. Базовые знания о процессах ...
25.12.2025
... Опыт работы в рекомендательных системах, поиске, рекламе или других смежных областях Опыт работы с технологиями обработки больших данных (Hadoop, Hive, Spark, YTsaurus и др.) Знание Java Опыт внедрения ML-систем в продакшен Опыт работы с распределёнными ...
25.12.2025
... профессиональных навыков. Используемые технологии: Backend: Python, Spring Framework (IoC/DI, beans), Hibernate, REST Data: Postgres, Hadoop, ElasticSearch, Ignite ETL: Spark, Scala, Python, AirFlow, Zeppelin, Kafka CI/CD: Docker, OpenShift/K8s, Jenkins ...
25.12.2025
... analyst от 2х лет. Высшее математическое или техническое образование. Отличное владение Python, PySpark, SQL Знание устройства Hadoop, HDFS, Hive. Опыт работы с системами контроля версий (Git). Мы предлагаем: Динамично и быстроразвивающийся бизнес, ресурсы ...
25.12.2025
... Модели досрочного погашения кредитов физ. лиц ( time series, tabular ml ) Обязанности сбор и подготовка данных (Hadoop, pyspark, sql) тестирование различных гипотез согласование метрик и результатов с заказчиками полный пайплайн разработки модели поддержка ...
25.12.2025
... работы с SQL, Python - tНавыки работы в SAS EG, JupyterHub, Teradata, DBeaver и т.п. Опыт работы с экосистемой Hadoop (Spark, Impala, Hive); Навыки системного анализа информации и опыт работы с большими массивами данных; Опыт работы в оптимизации запросов ...
25.12.2025
... ETL-инструментов Желателен опыт работы с открытыми или отечественными системами хранения и обработки данных (на основе Greenplum, Hadoop, Airflow, Debezium и т.п.). Будет плюсом: Опыт работы с инструментами мониторинга, инструментами управления жизненным ...
25.12.2025
... подход, возможности, которые дает цифровая платформа Озон и новые идеи, возникающие в сообществе. Основной стек: Python, Hadoop, Pyspark, Git, Airflow. Вам предстоит: Отвечать за разработку и поддержку ML-моделей для работы с юридическими лицами ...
25.12.2025
... рынка РФ и НПФ. Требования: Технический бекграунд в области обработки и хранения данных, опыт работы с Greenplum/Hadoop/Spark/Postgres/др. Опыт менеджерской работы на позициях CDO или CDO-1 Навык проведения качественных презентаций Понимание принципов ...
25.12.2025
... в Банках, подразделениях ИТ или ИТ компаниях от 1 года; уверенные знания SQL, Python; опыт работы с PySpark, понимание устройства Hadoop; опыт работы с BI системами и инструментами визуализации; знание стандартов по качеству данных как преимущество.
25.12.2025