Сортировать:
- по релевантности
- по дате
- по зарплате
до
300 000 руб.
... или kubernetes Опыт работы с Hadoop, PySpark, Airflow Стек применяемых технологий ... , Jupyter Hub, git, Apache Airflow, Hadoop, Pyspark, aiohttp, fastapi, Postgres, S3 ...
25.12.2025
... данных из различных источников (RDBMS, Hadoop, плоские файлы) в рабочую область ... (Hadoop) проектирование и разработка аналитических витрин ... со стеком технологий Big Data (Hadoop, Spark, Hive/Impala) является большим ...
25.12.2025
... SQL-запросы, опыт работы с Hadoop, Spark, Airflow, Docker Опыт дообучения ... технологий: Python, PyTorch, Big data (Hadoop, PySpark, Hive), Airflow, Docker, SQL ... -сервера с GPU и большой Hadoop-кластер Зрелый сетап разработки ML ...
22.12.2025
... /transform; Мигрировать существующие пайплайны с Hadoop/HDFS на новую архитектуру (S3 ... /подходов; Технический вызов: миграция с Hadoop, масштабируемость, отказоустойчивость, строгие SLA на ...
17.12.2025
... : PostgreSQL / Greenplum Apache Spark Apache Hadoop Python/Scala Openshift / Kubernetes Apache ... -процессов на платформах Greenplum и Hadoop Поддержка промышленной эксплуатации разработанных решений ...
25.12.2025
... , Cassandra, Kafka, Docker, k8s, Airflow, Hadoop, Apache Spark. 1. Инструменты: Python ... , Jupyter notebook (для подключения к Hadoop и Apache Spark при необходимости ...
25.12.2025
... петабайты данных, реализованной на стеке Hadoop и Greenplum. Платформа фин. данных ... с обработкой данных на технологиях Hadoop (особенно - Spark/Flink) опыт технологического ...
22.12.2025
... петабайты данных, реализованной на стеке Hadoop и Greenplum. Платформа фин. данных ... плюсом: детальное знакомство с экосистемой Hadoop и современными средствами хранения и ...
22.12.2025
... для работы с большими данными (Hadoop, Spark). Изучение новых методов анализа ... для работы с большими данными (Hadoop, Spark, Hive). Понимание реляционных баз ...
17.12.2025
... /ELT (Apache NiFi), Data Lake (Hadoop), Data Warehouse (GreenPlum), Data Marts ... системами хранения и обработки данных (Hadoop, Spark, Hive); Понимание концепций Data ...
25.12.2025
до
240 000 руб.
... : - Опыт работы в роли data engineer 5 лет; - Опыт работы со всеми указанными инструментами по направлению Hadoop: HDFS, MapReduce, Yarn, Hadoop Common, Apache Tez, Apache Hive и/или Spark SQL, Apache Kafka; - Опыт работы с реляционными БД (Oracle ...
16.12.2025
... , MLflow, Seldon core/Kserve, Python, Hadoop (spark, hdfs), Docker,Kubernetes, longhorn ... , devops, ci/cd; - Опыт работы Hadoop, Spark, Kafka, ELK; - Понимание ML ...
15.12.2025
... с реально большими данными: PySpark, Hadoop, распределённые вычисления Оптимизация обучения: mixed ... Имеете опыт работы с PySpark / Hadoop и обработки данных в распределённой ...
25.12.2025
165 000 - 220 000 руб.
... . Развитая инфраструктура: есть несколько кластеров Hadoop, у DS есть несколько мощных ... за счет компании Наш стек: Hadoop, Spark, SCALA , Python, Java, PostgreSQL ... в работе инструменты BigData: Airflow, Hadoop, Spark, Hive, Zeppelin Будет плюсом ...
27.12.2025
... , особенно используемые в работе с большими данными Будет плюсом, если вы Пользовались хотя бы одной MPP-СУБД (Greenplum, ClickHouse, Vertica, Teradata и т. д.) Понимаете принципы работы технологий распределённой обработки данных (Hadoop, MapReduce и MPP)
25.12.2025
... для разработки методов сбора информации из открытых источников проработка архитектуры решений работа с ML и большими данными в Hadoop и другими базами данных работа с LLM для обработки текстовых данных поддержка NLP моделей: NER, Classification внедрение ...
25.12.2025
... Office (Excel, PowerPoint) или аналогичным ПО; работа в системах управления задачами и накопления знаний при командной работе (JIRA, Confluence); знание технологий и инструментов по автоматизации обработки, анализа данных (СУБД, OLAP, Hadoop) - как плюс.
25.12.2025
... BI-инструментов; Желателен опыт работы с открытыми или отечественными системами хранения и обработки данных (на основе Greenplum, Hadoop, Airflow, NiFi, Debezium и т.п.); Желателен опыт системного администрирования ОС Linux и администрирования крупных баз ...
25.12.2025
... ТЗ для инженера); документировать разрабтку и решения. Вы нам подходите, если: Имеете практический опыт работы с BigData-хранилищами (Hadoop и/или S3, аналитические базы данных (Clickhouse, Greenplum, Vertica); у вас был практический опыт работы с движками ...
25.12.2025
... mle/ds от 5ти лет; Знание теоретических и практических продвинутых методов машинного обучения; Знание SQL, знакомство с hadoop-стэком; Опыт работы с docker, kubernetes, pyspark, kafka, postgres, airflow; Наличие опыта вывода разработанных решений в прод ...
19.12.2025
... вы: Имеете опыт работы в соответствующей области не менее 3 лет; Имеете опыт работы с одной или несколькими системами - Hadoop (HDFS, Yarn, Hive, Spark, HBase), Kafka, Nifi; Знаете принципы построения архитектуры DWH/BDW, Data Lake, стриминговых платформ ...
16.12.2025
... и unit-тесты; Опыт работы с большими объемами данных и оптимизации производительности. Будет плюсом: Опыт работы с С# ; Опыт работы с Hadoop, S3, Clickhouse ; Опыт работы с Spark ; Опыт работы с Prometheus , Grafana . Опыт работы с Kubernetes.
06.12.2025
... следить за трендами и искать идеи, которые можно применить в наших проектах разбирать гигантские залежы данных в hadoop, проводить аналитику полезного для моделей, собирать датасеты на сотни гигабайт изучать как разрабатываемые модели могут помочь бизнесу ...
29.12.2025
... процессами обеспечения качества в рамках жизненного цикла услуги (PLM). Наш стек: Java 11, Hibernate, Spring, Angular 11, PostgreSQL, Hadoop, Hbase, Zookeeper, Bash, а разрабатываем по методологии Agile. Наша команда: 5 Backend devs на Java, .NET developer ...
27.12.2025
... промышленной разработки на Python. Опыт участия в проектах по созданию и развитию Data Vault. Знание стека: Oracle/Hadoop/Teradata, SQL/Python/Spark/Hive, Airflow, Grafana/SAS. Главный принцип SkillStaff - Выбирай! РАЗНООБРАЗИЕ ПРОЕКТОВ. Выбирай из сотен ...
26.12.2025