岗位职责:1、负责大语言模型(LLM)的微调、蒸馏和优化,提升模型在垂直领域的表现。2、研究并实现强化学习、RAG检索优化等核心技术,提升模型的任务性能。3、设计和优化大模型的训练和推理流程,解决模型训练中的性能瓶颈问题。4、与算力卡资源(如GPU/TPU)联调,优化模型训练和推理的性能。5、探索大模型的前沿技术(如模型压缩、量化、多模态融合等),并将其应用到实际业务中。6、与团队协作,完成从算法设计到模型落地的全流程工作。任职要求:1、本科及以上学历,计算机科学、人工智能、数学、统计学或相关领域,具备扎实的数学基础(如线性代数、概率论、优化理论等)。2、3年以上大模型相关经验,熟悉主流大模型(如GPT、LLaMA、DeepSeek等)的微调和优化。3、熟练掌握Python,熟悉PyTorch、TensorFlow等深度学习框架。4、具备强化学习、模型蒸馏、RAG检索优化等领域的实战经验,能够独立完成算法设计和实现。5、熟悉GPU/TPU等算力资源的调度和优化,能够针对硬件特性优化模型训练和推理性能。6、具备较强的研究能力,能够阅读并复现前沿论文,提出创新性解决方案。有以下经验者优先:1、有语音识别算法调优经验优先2、熟悉大模型推理优化技术(如vLLM、Ollama等);3、在垂直领域(如金融、医疗、教育等)有模型优化和落地经验;4、发表过相关领域的***论文或参与过开源项目。