职位描述:1. 负责生成式语言模型应用的设计,开发,和落地,为用户使用场景提供更好的体验。 2. 在已部署的大模型服务中,调研不同模型与架构对服务指标的影响。 3. 结合提示词工程 (prompt engineering),模型微调 (supervised/parameter efficient fine-tuning),函数调用 (function calling),配合向量数据库的检索增强生成 (RAG)等大模型技术,研发关键功能,实现稳定,可复现的模型产出。 4. 跟进业界的最新产出结果,根据业务需求,为团队调研引入新的大模型应用场景。 职位要求:1. 扎实的编程技术,适应Linux环境下的开发,熟悉以Python为主的大模型开发流程,并掌握一定Java/C++编程语言的能力。 2. 了解业界新模型的发展方向和技术知识,包括但不限于 - 向量方法 - 多模态 - 模型构架 - 训练数据集收集 - 指令微调数据集生成 - 模型微调 - 模型对齐 - 推理性能加速等。 3. 熟悉Langchain,Haystack,LlamaIndex等开源大模型应用框架,了解如vLLM,LmDeploy,Ollama,Llama.cpp等的开源推理框架。 4. 熟悉深度学习技术,并了解 Pytorch 环境下,基于如 Deepspeed 架构下的模型开发和训练 5. 对分布式计算有一定的了解 6. 良好的团队沟通和协作能力,有能力为非大模型背景的听众提炼技术要点。 加分项:1. 有利用大模型落地应用或解决实际个人问题的经验 2. 在分布式集群上有训练大模型的经验 3. 熟悉GPU构架,有一定模型推理性能优化经验 4. 有对LLM社区有一定贡献或有相关领域的学术文章发表