寻找同路人,共同探索定义AI的未来我们正在寻找对大规模预训练模型(LLM)有深入理解且具备丰富实战经验的算法工程师,加入团队参与核心大模型的研发、优化及落地工作。您将负责大模型的微调、性能提升及行业场景适配,推动前沿技术在实际业务中的价值转化。【工作职责】1.模型微调:主导或参与大模型的微调(Fine-tuning)、提示工程(Prompt Engineering)及适配优化,设计高效的模型微调方案(如LoRA、P-tuning、Adapter等),优化训练效率及资源消耗; 2.工程化应用:探索大模型与行业场景的结合,设计可落地的创新技术应用方案并推动工程化实现,解决具体业务场景中的模型精度问题;3.部署和管理:自有模型及其他各类专有和开源大语言模型/多模态大模型调用和部署,确保它们的最优性能,整合到解决方案中;负责多模态数据信息的对齐工作,确保数据质量,及模型效果评估;深入分析模型表现,针对长文本理解、多轮对话、跨模态生成等任务进行算法改进;4.技术预研:研究大模型前瞻技术和趋势,跟踪大模型领域前沿技术(如MoE、RLHF、分布式训练优化),探索高效的模型调优策略、高质数据建设方法;【任职要求】1.3年以上自然语言处理( NLP )或机器学习领域的工作经验,精通python技术栈,具备高性能计算、CUDA优化经验者加分,精通Pytorch或Tensorflow等机器学习框架,精通迁移学习等模型训练技术;深入理解Transformer、BERT、GPT等模型架构及训练原理;2.至少参与过1个完整的大模型微调项目,熟悉主流大模型(如LLaMA、ChatGLM、Qwen、DeepSeeK)的调优方法;3.具备Prompt优化、领域适配、模型压缩(量化/剪枝)等实际经验;4.熟悉Hugging Face、LangChain等开源生态工具链;5.计算机科学、人工智能、自然语言处理或相关专业硕士及以上学历(能力突出者可放宽至本科);具有创新思维和钻研精神,敢于挑战、敢为人先。