【26届校招】-具身智能算法工程师/ 青年研究员(VLA方向)-安全可信中心
薪资面议
上海
不限
葛女士
4分钟前在线
上海人工智能实验室 ·校招
投递时间:2025年08月16日-2028年10月14日
岗位职责:
团队介绍:
上海人工智能实验室安全可信团队以Make Safe AI 为核心技术愿景,致力于大模型、具身、智能体及多智能体系统的安全与可信研究,关注模型推理能力与对齐机制的深入理解与优化。我们推动前沿技术在可信推理、对齐方法、攻击与防御、评测体系等方向的创新落地,成果多次发表于顶级学术会议,包括ACL杰出论文、ICLR Oral等。如果你对大模型安全、可信对齐及未来AI能力的潜在风险怀有热情,欢迎加入我们,共同推动从“让AI 变得安全”向“打造安全的AI 转变”,支持人工智能朝着有益、安全。公平方向健康有序发展。"
你将收获:参与构建全球领先的、面向物理世界的AI安全与可信体系;直面多模态时代的新型安全挑战;工作成果直接影响亿级用户产品的安全防线。
岗位职责:
具身智能大模型安全可信技术研究:研究视觉语言行为大模型(VLA)、多模态模型的潜在安全风险(如语义-物理安全断层、长时许任务规划、思维链推理漏洞等);开发针对模型推理、训练阶段的安全可信技术(安全的记忆检索与利用机制、可被验证的思维链推理、防止灾难性遗忘的持续学习安全框架等);探索视觉语言行为模型(VLA)的对抗防御策略与可解释性分析,设计并实现覆盖全链条的动态防御方案(如鲁棒性增强、基于强化学习的安全对齐等);构建并完善VLA模型的可靠性评估体系,确保智能体在复杂、动态和不确定的物理环境中,其行为依然稳定、可预期。

任职要求:
任职要求:
硬性条件:本科及以上学历,计算机科学/人工智能/机器人相关专业;对具身智能有深入理解,熟悉VLA模型架构(如RT-2/Pi0/OpenVLA等)及主流机器人技术栈;具有AI安全领域经验;精通大模型架构(Transformer/BERT/GPT系列),并具备多模态模型实战经验(CLIP/QwenVL系列/InternVL系列等);精通Python,熟悉主流AI框架(PyTorch/TensorFlow/JAX)
专业经验(满足以下一项或多项):
强化学习与对齐: 拥有强化学习微调(RLFT)或偏好对齐的实践经验。
大模型可解释性/鲁棒性: 有针对Transformer架构进行可解释性分析或鲁棒性增强的研究经验。
持续学习: 对持续学习、终生学习等领域有深入研究或实践。
多模态理解与编码: 熟悉多模态数据(视觉、语言、动作等)的编码与融合技术;具有多模态内容场景理解经验。
生成式模型:具备使用扩散模型(Diffusion Models)等先进生成式模型进行策略学习(Policy Learning)或世界建模(World Modeling)的实践经验。
加分项:
在机器人/AI领域的顶级会议(如CoRL, RSS, ICRA, NeurIPS, ICCV, CVPR等)发表过相关论文;有具身智能或机器人领域的安全研究经验。

查看更多
上海人工智能实验室
未融资
|
100-499人
龙文路129号(国际传媒港L1大楼)
如发现虚假招聘、广告,或以任何名义索要证件、费用,或诱导异地入职、参与培训等均属违法,发现请立即举报
收藏
立即投递