Loading...

波士顿动力电驱机器人进厂打工,全程自主无遥控,50万人在线围观

还登上了油管热榜

登上油管热榜,吸引50万网友围观,波士顿动力人形机器人又放大招了——

无远程遥控(Fully Autonomous),Atlas可完全自主打工了。

波士顿动力电驱机器人进厂打工,全程自主无遥控,50万人在线围观

只需告诉Atlas前后搬运的位置坐标,它就能全自动分装物件,动作be like:

而在Atlas的第一视角下,它看到的是酱紫的:

面对“刁难”(物件在底层位置),Atlas直接一个帅气下蹲,再次成功完成任务。

更有意思的是,当发现自己弄错位置后,Atlas突然以一个鬼畜完成了瞬间纠错。(笑死,怪突然的)

总之,在近3分钟demo中,Atlas进行了一系列秀肌肉操作:头部、上半身、髋关节都能360°旋转,可随时转向、倒退行走……

有网友惊呼,其他机器人还在学走路,Atlas已经开始朝九晚五,甚至007式打工了!

波士顿动力电驱机器人进厂打工,全程自主无遥控,50万人在线围观

同行(通用仓库机器人nimble ai创始人)大赞:Atlas已经遥遥领先了。

只有机器人专家才知道Atlas有多棒

波士顿动力电驱机器人进厂打工,全程自主无遥控,50万人在线围观

网友:完全自主?你引起了我的注意

自从今年4月宣布改液压为电驱后,这是波士顿动力人形机器人为数不多的露面。

上一次还是8月底,他们展示了Atlas能够一口气做俯卧撑、深蹲等热身运动,当时就震惊了上百万网友。

而在最新demo中,Atlas又瞄准了自动化控制,现在它能在集装箱和移动小车间自主移动发动机盖了。

据波士顿动力介绍,Atlas使用机器学习视觉模型来检测和定位环境固定装置和单个箱子,并且会使用专门的抓取策略,通过不断估计被操纵物体的状态来完成任务。

机器人能够结合视觉、力和感知来检测环境变化(如移动固定装置)和动作故障(如未能插入盖子、绊倒、环境碰撞)并做出反应。

看完一系列最新表现,果不其然又惊倒了一片网友:

完全自主?现在你引起了我的注意

波士顿动力电驱机器人进厂打工,全程自主无遥控,50万人在线围观 波士顿动力电驱机器人进厂打工,全程自主无遥控,50万人在线围观

网友们也是纷纷cue起了特斯拉人形机器人Optimus~

前一阵,Optimus在特斯拉的发布会上同样大秀肌肉(开场热舞、与人交谈猜丁壳、倒酒等一个不落),不过最后被多方证明存在现场远程操控。

后来特斯拉也发布了一个展示Optimus自主导航的demo:

对于这两家人形机器人领域同样炙手可热的竞争对手,网友们也开始各自站台,并最终达成了一个“共识”。

二者的差距在于量产。波士顿动力单兵能力强,而特斯拉在商业化量产方面更具优势。

波士顿动力电驱机器人进厂打工,全程自主无遥控,50万人在线围观

背后的逻辑也很简单,人形机器人最终还是要走向消费市场。

波士顿动力电驱机器人进厂打工,全程自主无遥控,50万人在线围观

不过不管怎样,Atlas展现的细节已十分惊艳,比如可以360°旋转的身体、头部。

波士顿动力电驱机器人进厂打工,全程自主无遥控,50万人在线围观 波士顿动力电驱机器人进厂打工,全程自主无遥控,50万人在线围观

虽然也有人吐槽这很诡异,不过大多数人表示看好:

人形机器人能够被设计而不是进化,意味着一旦我们弄清楚工程原理,各种变形金刚和驱魔人式的能力都可能发生。

波士顿动力电驱机器人进厂打工,全程自主无遥控,50万人在线围观

另外,还有人疑惑为什么Atlas不搞个360°全景摄像头,还需要转动头部呢?

对此,有网友推测最大原因还是控成本。

更高分辨率的深度相机价格昂贵(带宽和计算),因此将超密集传感器限制在工作空间的位置是很有意义的。

波士顿动力电驱机器人进厂打工,全程自主无遥控,50万人在线围观

实在不行,也可以“低质量的360°全景视觉+面向单一方向的高质量相机/激光雷达”(网友支招有)。

波士顿动力电驱机器人进厂打工,全程自主无遥控,50万人在线围观

One More Thing

在reddit网友一片热议中,部分网友发出了灵魂拷问:

机器人完成这种任务(分装物件)好像没啥大意义?能不能更贴近现实生活。

波士顿动力电驱机器人进厂打工,全程自主无遥控,50万人在线围观

对此,也有人对Atlas采用的技术表达担忧:基于点和规划器/优化器在泛化能力上可能不如神经网络等。

波士顿动力电驱机器人进厂打工,全程自主无遥控,50万人在线围观

且就在刚刚,英伟达新发布了HOVER,一个1.5M参数的神经网络控制器,用于人形机器人的全身运动和操作协调。

据负责英伟达具身智能实验室(GEAR)的Jim Fan介绍:

人类在行走、保持平衡以及操纵四肢到达期望位置时,需要大量的潜意识处理。我们在HOVER中捕捉了这种“潜意识”,这是一个单一模型,学习如何协调人形机器人的电机以支持运动和操纵。

我们在NVIDIA Isaac中训练了HOVER,这是一个GPU驱动的仿真套件,能够实现比现实时间快10000倍的物理模拟速度。

为了直观理解这个数字,机器人在虚拟“道场”中经历了一年的密集训练,但在一块GPU卡上仅花费了大约50分钟的真实时间。然后,神经网络无需微调即可零样本迁移到现实世界。

简单说,HOVER可以被“提示”执行各种指令,英伟达称之为“控制模式”。比如:

概括而言,HOVER提供了一个统一接口,允许使用任何方便的输入设备来控制机器人。

它简化了收集全身遥控操作数据的方式,以便于训练;且作为一个上游的视觉-语言-动作模型,只要提供运动指令,HOVER就能将其转换为高频的低级电机信号。

波士顿动力电驱机器人进厂打工,全程自主无遥控,50万人在线围观

对此,你怎么看?

© 版权声明

相关文章

暂无评论

暂无评论...