毕业要求:2025届
投递时间:2025年03月01日-2025年4月30日
岗位职责:
1)参与大规模语言模型(LLM)的研究、设计与开发,包括但不限于预训练、指令微调、对齐优化、推理加速等方向;
2)探索LLM在搜索、对话、推荐、多模态等场景的应用与性能优化;
3)跟踪学术界与工业界前沿技术(如模型架构创新、高效训练、分布式计算等),推动技术落地;
4)负责模型性能调优,解决训练/推理中的稳定性、效率及资源消耗问题;
5)参与数据构建、实验分析及模型迭代,推动算法效果持续提升。
任职要求:
1)教育背景:计算机科学、人工智能、数学、统计学等相关专业,硕士及以上学历
2)扎实的算法与数据结构基础,熟悉深度学习、自然语言处理(NLP)核心理论。
3)熟练掌握Python/C++,熟悉PyTorch/TensorFlow等深度学习框架;
4)深入理解Transformer架构及主流LLM技术(如GPT、LLaMA、BERT等);
5)了解分布式训练、模型压缩、量化部署等技术者优先;
6)有NLP竞赛(如Kaggle、天池)、顶会论文(ACL/EMNLP/NeurIPS等)或开源项目经验者优先。