工作职责:1、负责大语言模型(LLM)、多模态大模型(如GPT、CLIP、LLaMA等)的领域适配与微调(Fine-tuning);2、优化模型参数、调整超参数配置,解决模型微调中的过拟合、收敛效率低等问题,确保模型精度与泛化能力;3、构建高质量领域语料库,设计数据清洗、标注、增强方案,开发自动化数据处理工具提升训练数据质量;4、探索指令微调(Instruction Tuning)、人类反馈强化学习(RLHF)等技术,提升模型对齐用户需求的能力;5、设计高效微调方案(Adapter/LoRA/P-tuning),实现分布式训练加速(如DeepSpeed、Megatron-LM),优化GPU资源利用率,平衡模型效果与训练成本;6、开发模型评估体系,通过Prompt Engineering与数据增强提升泛化能力;7、探索模型压缩与量化技术,支持边缘端部署需求。任职资格:1、硕士及以上学历,计算机科学、人工智能、数学等相关专业,扎实的机器学习与深度学习理论基础;2、3年以上NLP/大模型训练/微调经验,精通BERT/GPT/T5等架构;3、深入理解大模型微调技术(如Prompt Tuning、LoRA、P-Tuning),具备多任务/多模态模型调优经验;4、精通Python,熟悉PyTorch/TensorFlow框架,掌握大模型训练工具链(如Deepspeed、Accelerate);5、熟悉主流大模型架构(如Transformer、MoE)及开源生态(Hugging Face、LangChain);6、熟悉分布式训练、模型并行(Model Parallelism)及混合精度训练优化方法;7、具备扎实的算法功底,能独立复现前沿论文方案,参与过千亿参数级模型训练优先;8、在以下至少一个领域有实战经验:对话系统、知识问答、内容生成、搜索推荐、行业知识图谱构建。