Сортировать:
- по релевантности
- по дате
- по зарплате
... CUDA/Triton-ядер для LLM тесно взаимодействовать с ML-инженерами и research-командами для понимания workload ов и bottleneck ов (например: multinode inference, sparse attention, mixture-of-experts, long-context inference) участвовать в open-source ...
11.01.2026