长沙站|武汉站|成都站|南京站|杭州站|攀枝花|苏州站
无锡站|常州站|重庆站|长春站|东莞站|佛山站|广州站
桂林站|贵阳站|惠州站|合肥站|江门站|嘉兴站|金华站
昆明站|柳州站|宁波站|南昌站|南宁站|青岛站|上海站
您当前的位置:首页 > 新闻资讯 > 快讯
首次开源,阿里达摩院公布机器人上下文协议 RynnRCP
来源:一起淘      时间:2025-08-12      点击:

8 月 11 日,在 2025 世界机器人大会上,阿里达摩院宣布开源自研的 VLA 模型 RynnVLA-001-7B、世界理解模型 RynnEC、以及机器人上下文协议 RynnRCP,推动数据、模型和机器人的兼容适配,打通具身智能开发全流程。

据悉,达摩院将 MCP(Model Context Protocol)理念引入具身智能,首次提出并开源了 RCP(Robotics Context Protocol)协议以推动不同的数据、模型与本体之间的对接适配。

对此,达摩院打造了名为 RynnRCP 的一套完整的机器人服务协议和框架,能够打通从传感器数据采集、模型推理到机器人动作执行的完整工作流,帮助用户根据自身场景轻松适配。

RynnRCP 现已经支持 Pi0、GR00T N1.5 等多款热门模型以及 SO-100、SO-101 等多种机械臂,正持续拓展。

而同步开源的两款具身智能大模型:

  • RynnVLA-001 是达摩院自主研发的基于视频生成和人体轨迹预训练的视觉-语言-动作模型,其特点是能够从第一人称视角的视频中学习人类的操作技能,隐式迁移到机器人手臂的操控上,从而让机械臂操控更加连贯、平滑,更接近于人类动作。
  • 世界理解模型 RynnEC 将多模态大语言模型引入具身世界,赋予了大模型理解物理世界的能力。该模型能够从位置、功能、数量等 11 个维度全面解析场景中的物体,并在复杂的室内环境中精准定位和分割目标物体。无需 3D 模型,该模型仅靠视频序列就能建立连续的空间感知,还支持灵活交互。

此外,达摩院还在上月开源了 WorldVLA 模型,首次将世界模型与动作模型融合,提升了图像与动作的理解与生成能力。相比传统模型,该模型抓取成功率提高 4%,视频生成质量显著改善,展现了较好的协同性和准确性。

顶一下
回首页
回首页

一起淘最新邀请码、知买推客,注册邀请码免费发放 一起淘最新邀请码、知买推客,注册邀请码免费发放
来源:本地生活服务      点击:
2025-05-07 17:05:27