職位描述:
1.研發(fā)分布式訓練加速方案,優(yōu)化并行策略方案例如:DP/TP/PP/MP/CP,提升千億參數(shù)模型訓練吞吐量;
2.設計混合精度訓練與顯存優(yōu)化方案,開發(fā)自適應梯度壓縮、通信優(yōu)化模塊,實現(xiàn)單卡訓練模型規(guī)模提升和降低分布式訓練通信開銷;
3.開發(fā)量化壓縮工具鏈(支持GPTQ/AWQ等算法),實現(xiàn)模型8/4-bit無損量化部署;
4.設計多GPU推理調(diào)度策略,優(yōu)化顯存碎片管理與計算資源利用率;
5.跟進vLLM/TensorRT-LLM/SGLang等前沿框架,探索MoE架構/稀疏化訓練等新型范式,將最新學術成果快速落地到工程實踐。
職位要求:
1.計算機相關專業(yè)碩士及以上學歷,3+年LLM系統(tǒng)優(yōu)化經(jīng)驗;
2.精通PyTorch/TensorFlow框架底層機制,具備CUDA/C++內(nèi)核開發(fā)能力;
3.掌握Megatron-LM/DeepSpeed/HuggingFace生態(tài)核心原理;
4.有千億參數(shù)模型訓練優(yōu)化或百萬QPS推理服務落地經(jīng)驗者優(yōu)先;
5.熟悉NVIDIA GPU架構與性能分析工具;
6.熟悉大模型推理服務架構設計與微服務化部署。