Сортировать:
- по релевантности
- по дате
- по зарплате
... , Cassandra, Kafka, Docker, k8s, Airflow, Hadoop, Apache Spark. 1. Инструменты: Python ... , Jupyter notebook (для подключения к Hadoop и Apache Spark при необходимости ...
25.12.2025
... для работы с большими данными (Hadoop, Spark). Изучение новых методов анализа ... для работы с большими данными (Hadoop, Spark, Hive). Понимание реляционных баз ...
17.12.2025
... /ELT (Apache NiFi), Data Lake (Hadoop), Data Warehouse (GreenPlum), Data Marts ... системами хранения и обработки данных (Hadoop, Spark, Hive); Понимание концепций Data ...
25.12.2025
до
240 000 руб.
... : - Опыт работы в роли data engineer 5 лет; - Опыт работы со всеми указанными инструментами по направлению Hadoop: HDFS, MapReduce, Yarn, Hadoop Common, Apache Tez, Apache Hive и/или Spark SQL, Apache Kafka; - Опыт работы с реляционными БД (Oracle ...
16.12.2025
... , MLflow, Seldon core/Kserve, Python, Hadoop (spark, hdfs), Docker,Kubernetes, longhorn ... , devops, ci/cd; - Опыт работы Hadoop, Spark, Kafka, ELK; - Понимание ML ...
15.12.2025
... с реально большими данными: PySpark, Hadoop, распределённые вычисления Оптимизация обучения: mixed ... Имеете опыт работы с PySpark / Hadoop и обработки данных в распределённой ...
25.12.2025
... и unit-тесты; Опыт работы с большими объемами данных и оптимизации производительности. Будет плюсом: Опыт работы с С# ; Опыт работы с Hadoop, S3, Clickhouse ; Опыт работы с Spark ; Опыт работы с Prometheus , Grafana . Опыт работы с Kubernetes.
02.01.2026
... , особенно используемые в работе с большими данными Будет плюсом, если вы Пользовались хотя бы одной MPP-СУБД (Greenplum, ClickHouse, Vertica, Teradata и т. д.) Понимаете принципы работы технологий распределённой обработки данных (Hadoop, MapReduce и MPP)
25.12.2025
... для разработки методов сбора информации из открытых источников проработка архитектуры решений работа с ML и большими данными в Hadoop и другими базами данных работа с LLM для обработки текстовых данных поддержка NLP моделей: NER, Classification внедрение ...
25.12.2025
... Office (Excel, PowerPoint) или аналогичным ПО; работа в системах управления задачами и накопления знаний при командной работе (JIRA, Confluence); знание технологий и инструментов по автоматизации обработки, анализа данных (СУБД, OLAP, Hadoop) - как плюс.
25.12.2025
... BI-инструментов; Желателен опыт работы с открытыми или отечественными системами хранения и обработки данных (на основе Greenplum, Hadoop, Airflow, NiFi, Debezium и т.п.); Желателен опыт системного администрирования ОС Linux и администрирования крупных баз ...
25.12.2025
... ТЗ для инженера); документировать разрабтку и решения. Вы нам подходите, если: Имеете практический опыт работы с BigData-хранилищами (Hadoop и/или S3, аналитические базы данных (Clickhouse, Greenplum, Vertica); у вас был практический опыт работы с движками ...
25.12.2025
... mle/ds от 5ти лет; Знание теоретических и практических продвинутых методов машинного обучения; Знание SQL, знакомство с hadoop-стэком; Опыт работы с docker, kubernetes, pyspark, kafka, postgres, airflow; Наличие опыта вывода разработанных решений в прод ...
19.12.2025
... вы: Имеете опыт работы в соответствующей области не менее 3 лет; Имеете опыт работы с одной или несколькими системами - Hadoop (HDFS, Yarn, Hive, Spark, HBase), Kafka, Nifi; Знаете принципы построения архитектуры DWH/BDW, Data Lake, стриминговых платформ ...
16.12.2025
165 000 - 220 000 руб.
... . Развитая инфраструктура: есть несколько кластеров Hadoop, у DS есть несколько мощных ... за счет компании Наш стек: Hadoop, Spark, SCALA , Python, Java, PostgreSQL ... в работе инструменты BigData: Airflow, Hadoop, Spark, Hive, Zeppelin Будет плюсом ...
02.01.2026
... процессами обеспечения качества в рамках жизненного цикла услуги (PLM). Наш стек: Java 11, Hibernate, Spring, Angular 11, PostgreSQL, Hadoop, Hbase, Zookeeper, Bash, а разрабатываем по методологии Agile. Наша команда: 5 Backend devs на Java, .NET developer ...
02.01.2026
... с BI инструментами - Power BI, QlikSense, Apache Superset или другие; Будет плюсом: Опыт работы с Yandex ClickHouse и стеком Hadoop; Опыт построения ETL для работы ML/ИИ решений; Опыт работы с микросервисной архитектурой Kubernetes, Docker, Kubeflow;
29.12.2025
... следить за трендами и искать идеи, которые можно применить в наших проектах разбирать гигантские залежы данных в hadoop, проводить аналитику полезного для моделей, собирать датасеты на сотни гигабайт изучать как разрабатываемые модели могут помочь бизнесу ...
29.12.2025
... промышленной разработки на Python. Опыт участия в проектах по созданию и развитию Data Vault. Знание стека: Oracle/Hadoop/Teradata, SQL/Python/Spark/Hive, Airflow, Grafana/SAS. Главный принцип SkillStaff - Выбирай! РАЗНООБРАЗИЕ ПРОЕКТОВ. Выбирай из сотен ...
26.12.2025
... и исследование, формирование и проверка гипотез, проектирование модели данных, написание сложных SQL запросов) (PostgreSQL, Hadoop, Spark, Oracle SQL) понимание принципов жизненного цикла разработки и практический опыт создания python приложений enterprise ...
26.12.2025
... документации. Дополнительным плюсом будет знание и опыт работы с: ETL Informatica Developer AIrflow Greenplum Экосистема Hadoop ClickHouse Мы предлагаем: Конкурентоспособную заработную плату по результатам интервью, официальное оформление по ТК РФ; Удобный ...
25.12.2025
... , сайта и тд. Стек: Пишем преимущественно на Python (Numpy, SciPy, Pandas, sklearn, PyTorch). Активно используем экосистему Hadoop (PySpark, Hive, Kafka), у нас свой большой кластер Для автоматизации запусков наших пайплайнов используем Airflow Для ...
25.12.2025
... Наши ожидания от кандидата: Знание SQL ( oracle, postgres) - уровень выше среднего, умение оптимизировать код Опыт работы с Hadoop (hdfs, hive, impala, sqoop, spark) Знание: Python Знание иструментов визуализации Power Bi, MS Olap Знание инструментов ...
25.12.2025
... работы с СУБД Oracle/PostgreSQL/MS SQL в качестве аналитика; Верхнеуровневое понимание современного стека Big Data (Hadoop, Greenplum, Kafka и пр.); Отличные навыки тестирования разработок объектов DWH; Хорошие навыки использования BI Условия: Конкурентный ...
25.12.2025
... профессиональных навыков. Используемые технологии: Backend: Python, Spring Framework (IoC/DI, beans), Hibernate, REST Data: Postgres, Hadoop, ElasticSearch, Ignite ETL: Spark, Scala, Python, AirFlow, Zeppelin, Kafka CI/CD: Docker, OpenShift/K8s, Jenkins ...
25.12.2025