【工作职责】1、参与大模型(LLM、多模态等)基础算法研究,包括预训练、指令微调、模型压缩等方向;2、开发大模型行业应用方案,解决实际场景中的文本生成、知识推理、对话系统等问题;3、优化大模型训练/推理效率,探索分布式训练、量化、模型蒸馏等性能提升技术;4、构建数据处理Pipeline,设计数据清洗、增强、合成策略提升模型表现;5、跟进Deepseek、ChatGPT、Gemini、Claude等前沿技术动态,参与技术方案原型验证。【任职要求】1、计算机科学/数学/统计学等相关专业,211/985院校毕业优先;2、扎实的机器学习基础,熟悉Transformer、BERT、GPT等模型原理;3、熟练使用PyTorch/TensorFlow框架,有Kaggle/天池等比赛经验者优先;4、较强的Python工程能力,熟悉Linux开发环境及CUDA加速。5、参与过大模型训练/微调项目(课程设计/科研/实习),或熟悉LangChain/LLAMA Index等应用开发框架,或掌握Prompt Engineering、RAG等基础应用技术优先。6、具备强烈的技术好奇心,能快速学习Paper并复现核心算法,有良好的逻辑思维和问题拆解能力,对AGI技术趋势有热情,具备团队协作意识,能有效沟通技术方案。【加分优先项】 1、在ACL/NeurIPS等顶会发表过NLP相关论文; 2、有HuggingFace开源项目贡献或GitHub技术博客; 3、熟悉LLM安全对齐、RLHF等进阶技术。