动嘴操控“终结者”谷歌打造最强chatgpt机器人

我们知道,在掌握了网络中的语言和图像之后,大模型终究要走进现实世界,「具身智能」应该是下一步发展的方向。把大模型接入机器人,用简单的自然语言代替复杂指令形成具体行动规划,且无需额外数据和训练,这个愿景看起来很美好,但似乎也有些遥远。毕竟机器人领域,难是出了名的。然而 AI 的进化速度比我们想象得还要快。

  上周五,谷歌 DeepMind 宣布推出 RT-2:全球第一个控制机器人的视觉 - 语言 - 动作(VLA)模型。现在不再用复杂指令,机器人也能直接像 ChatGPT 一样操纵了。给机器人发命令,从没这么简单过。 

  RT-2 到达了怎样的智能化程度?

加载了RT-2多任务模型的机械臂可以直接听从人类的语言指令做出反应。比如命令它“捡起已灭绝的动物”,机械臂就能从狮子、鲸鱼、恐龙这三个塑料玩具中准确选择恐龙;1950331f0de0345b35d23dd7f301a1f8.jpeg  在此之前,机器人无法可靠地理解它们从未见过的物体,更无法做把「灭绝动物」到「塑料恐龙玩偶」联系起来这种有关推理的事。

  命令它将香蕉放到2+1的总和的位置,机械臂就能准确将香蕉放置在数字3的位置;
502b58de21051d7f2369c57fd3af7e81.jpeg
  跟机器人说,把可乐罐给泰勒・斯威夫特:  3c92a3a76436d13328795ca194715246.jpeg

  乍一看上述行为没什么了不起,但细思不由得令人瞠目称奇。过去的机器人只能完成极为准确的单一指令,而有了RT-2加持的机器人甚至已经可以独立进行思考,完成符号、数字、图像、物品的理解和推理。也就是说该模型可以教会机器人更好地识别视觉和语言模态,能够解释人类用自然语言发出的指令,并推断出如何做出相应的行动。真正突破了传统数据库记录复刻的基础形态,进化成为自主知识推理应用的高级形态。

RT-2 是如何实现的?

  高容量视觉语言模型(VLM)在网络规模的数据集上进行训练,使这些系统非常擅长识别视觉或语言模式并跨不同语言进行操作。但要让机器人达到类似的能力水平,他们需要收集每个物体、环境、任务和情况的第一手机器人数据。 RT-2 建立在视觉 - 语言模型(VLM)的基础上,又创造了一种新的概念:视觉 - 语言 - 动作(VLA)模型,它可以从网络和机器人数据中进行学习,并将这些知识转化为机器人可以控制的通用指令。该模型甚至能够使用思维链提示,比如哪种饮料最适合疲惫的人 (能量饮料)。ef9d66eb772bf778598bec80ad29341b.jpegRT-2 架构及训练过程   

其实早在去年,谷歌就曾推出过 RT-1 版本的机器人,只需要一个单一的预训练模型,RT-1 就能从不同的感官输入(如视觉、文本等)中生成指令,从而执行多种任务。

  作为预训练模型,要想构建得好自然需要大量用于自监督学习的数据。RT-2 建立在 RT-1 的基础上,并且使用了 RT-1 的演示数据,这些数据是由 13 个机器人在办公室、厨房环境中收集的,历时 17 个月。

  前面我们已经提到 RT-2 建立在 VLM 基础之上,其中 VLM模型已经在 Web 规模的数据上训练完成,可用来执行诸如视觉问答、图像字幕生成或物体识别等任务。此外,研究人员还对先前提出的两个 VLM 模型 PaLI-X(Pathways Language and Image model)和 PaLM-E(Pathways Language model Embodied)进行了适应性调整,当做 RT-2 的主干,并将这些模型的视觉 - 语言 - 动作版本称为 RT-2-PaLI-X 以RT-2-PaLM-E 。为了使视觉 - 语言模型能够控制机器人,还差对动作控制这一步。该研究采用了非常简单的方法:他们将机器人动作表示为另一种语言,即文本 token,并与 Web 规模的视觉 - 语言数据集一起进行训练。
  对机器人的动作编码基于 Brohan 等人为 RT-1 模型提出的离散化方法。如下图所示,该研究将机器人动作表示为文本字符串,这种字符串可以是机器人动作 token 编号的序列,例如「1 128 91 241 5 101 127 217」。 a881e38a9503fe031afe8d61777d0a04.jpeg

  该字符串以一个标志开始,该标志指示机器人是继续还是终止当前情节,然后机器人根据指示改变末端执行器的位置和旋转以及机器人抓手等命令。由于动作被表示为文本字符串,因此机器人执行动作命令就像执行字符串命令一样简单。有了这种表示,我们可以直接对现有的视觉 - 语言模型进行微调,并将其转换为视觉 - 语言 - 动作模型。

  在推理过程中,文本 token 被分解为机器人动作,从而实现闭环控制。
8dd83c73b0a334a31bed4c7e39539a7f.jpeg

  实验

  研究人员对 RT-2 模型进行了一系列定性和定量实验。

  下图展示了 RT-2 在语义理解和基本推理方面的性能。例如,对于「把草莓放进正确的碗里」这一项任务,RT-2 不仅需要对草莓和碗进行表征理解,还需要在场景上下文中进行推理,以知道草莓应该与相似的水果放在一起。而对于「拾起即将从桌子上掉下来的袋子」这一任务,RT-2 需要理解袋子的物理属性,以消除两个袋子之间的歧义并识别处于不稳定位置的物体。需要说明的是,所有这些场景中测试的交互过程在机器人数据中从未见过。cf7aaed9e362da5a5cf9d81072b72774.jpeg

  下图表明在四个基准测试上,RT-2 模型优于之前的 RT-1 和视觉预训练 (VC-1) 基线。0b0f9d8999873e54010907732c288927.jpeg

  RT-2 保留了机器人在原始任务上的性能,并提高了机器人在以前未见过场景中的性能,从 RT-1 的 32% 提高到 62%。d4af758df743b48f3694c86f824a7c10.jpeg

  一系列结果表明,视觉 - 语言模型(VLM)是可以转化为强大的视觉 - 语言 - 动作(VLA)模型的,通过将 VLM 预训练与机器人数据相结合,可以直接控制机器人。

  和 ChatGPT 类似,这样的能力如果大规模应用起来,世界会发生重大改变。它可能真正开启了在有人环境下使用机器人的大门,所有需要体力劳动的岗位都会被替代。或许,机器人总动员中,那个聪明的瓦力离我们不远了。8eb0644b15d5f9add5d8d562e32b1229.jpeg

猜你喜欢

转载自blog.csdn.net/specssss/article/details/132048606