岗位职责:1、负责大语言模型(LLM)的微调、蒸馏和优化,提升模型在垂直领域的表现;2、研究并实现强化学习、RAG检索优化等核心技术,提升模型的任务性能;3、设计和优化大模型的训练和推理流程,解决模型训练中的性能瓶颈问题;4、与算力卡资源(如GPU/TPU)联调,优化模型训练和推理的性能;5、探索大模型的前沿技术(如模型压缩、量化、多模态融合等),并将其应用到实际业务中;6、与团队协作,完成从算法设计到模型落地的全流程工作。任职要求:1、硕士及以上学历,计算机科学、人工智能、数学、统计学或相关领域,具备扎实的数学基础(如线性代数、概率论、优化理论等);2、3年以上大模型相关经验,熟悉主流大模型(如GPT、LLaMA、DeepSeek等)的微调和优化;3、熟练掌握Python,熟悉PyTorch、TensorFlow等深度学习框架;4、具备强化学习、模型蒸馏、RAG检索优化等领域的实战经验,能够独立完成算法设计和实现;5、熟悉GPU/TPU等算力资源的调度和优化,能够针对硬件特性优化模型训练和推理性能;6、具备较强的研究能力,能够阅读并复现前沿论文,提出创新性解决方案。有以下经验者优先:1、熟悉大模型推理优化技术(如vLLM、Ollama等);2、在垂直领域(如金融、医疗、教育等)有模型优化和落地经验;3、发表过相关领域的论文或参与过开源项目。