Сортировать:
- по релевантности
- по дате
- по зарплате
... . Основные задачи: Встраивание ML-моделей в продукт, участие ... Опыт работы с Triton Inference Server, ONNX Runtime, TensorRT ... latency/throughput) и профилирования ML-сервисов под GPU-нагрузку ... инференса LLM Опыт построения ML-сервисов для потоковой обработки ...
30.12.2025