世界上第一个「ChatGPT机器人」来了!近期,初创公司美国机器人创业公司Figure发布首个基于OpenAI多模态大模型的人型机器人Figure 01。现在直接给LLM造了个身体,具体来说是个OpenAI训练的多模态大模型。Figure AI发布了一段引人注目的视频,向公众展示了其最新研发的人形机器人Figure 01的多种技能,充分展示了和人类以及环境交互的能力,它会说会看,还能给人类递食物、捡垃圾、收拾碗筷。该视频引发了网友的热议,有人留言称:“未来5-10年绝对是一个疯狂的时代”。
当工作人员询问机器人能看见什么,Figure 01就清晰描述出桌子上的物品,包括苹果、放有杯碟的沥水架,连站在面前的工作人员也没放过,并强调了工作人员搭在桌上的右手。而当工作人员说了一句“我饿了”,Figure 01立即就递过去苹果。甚至可以一边清理工作人员刚扔在桌面上的纸团垃圾,一边解释为啥刚才给了苹果。视频里Figure 01展示的能力有,它会说会看,还能给人类递食物、捡垃圾、收拾碗筷。该视频引发了网友的热议,有人留言称:“未来5-10年绝对是一个疯狂的时代”。
那这一切技能又是怎么完美实现的呢?领导该项目的高级AI工程师Corey Lynch发文解释了背后原理。他表示,Figure 01正是通过与OpenAI提供的大模型连接起来,才被赋予了这些天秀的“有趣新功能”。他们将机器人摄像头拍摄到的图像和机载麦克风捕捉的语音,转录为文本输入到由OpenAI预训练的大型多模态模型中。该模型能够理解图像和文本,在处理整个对话历史、包括过去的图像后做出语言回应,这些回应再通过文本转语音最终传递给人类。
Figure的人形机器人与OpenAI大模型能力结合,完成了此前许多难以完成的“高难度动作”,机器人与人类的人机交互效果,再次向前迭代。未来随着AI大模型与机器人更加深度的结合,AI真正走向更广泛的商用、走向千家万户的进度也将提速。
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。