Meta重磅更新,小扎在元宇宙里养了会做家务的狗!人形化身超逼真,AI智能体在真实物理世界和人互动


  新智元报道  

编辑:Aeneas 好困
【新智元导读】今天,Meta重磅发布了Habitat 3.0,经它训练的AI智能体,学会了找人,还能帮人打扫房间。社交智能机器人,进入下一个里程碑!

今天开始,人类离帮忙做家务的机器人,又近了一步!Meta宣布推出Habitat 3.0,目的是开发出社会化的AI智能体,这意味着社交智能机器人已经进入新的里程碑阶段。这些具身智能背后的关键,当然就是AI Agent。有了它们,机器人可以和人类协作,帮人类完成日常任务。

论文地址:https://ai.meta.com/static-resource/habitat3

项目地址:https://github.com/facebookresearch/habitat-lab/tree/v0.3.0其实,Meta在今天同时宣布了三项重大进展——1. Habitat 3.0是第一个支持在多样化、逼真的室内环境中,就人机交互任务进行大规模训练的模拟器。它能同时支持机器人和人形化身,让人类和机器人在家庭环境中协作,比如帮忙打扫房间。2. Habitat合成场景数据集(HSSD-200),是由艺术家创造的三维数据集,包含211个场景中466个语义类别的18,000多个对象。HSSD-200在同类数据集中质量最高,可以训练导航智能体,对物理世界三维重建场景的泛化效果非常好,使用的场景数量也要少两个数量级。3. HomeRobot则是一个家用机器人助手硬件和软件平台,非常经济实惠,机器人可以在模拟和物理世界环境中,执行开放的词汇任务。在大规模学习上,Habitat 3.0在单GPU上每秒可以完成超过1000步。

网友:能干家务的机器人什么时候出来

网友们表示:这是机器人技术的重大飞跃。还有人感慨:这是非常高级的模拟人生游戏。已经有人期待在Meta Quest VR中体验 Habitat 3.0了。Dream一下,家政辅助机器人应该不远了。

Habitat 3.0

利用Habitat 3.0,Meta不仅在外貌和姿势上对人类进行了真实的模拟。而且,还支持从简单(如行走和挥手)到复杂(如与物体交互)等各种类型的动作,并兼容动捕。此外,虚拟化身还可以通过程序进行控制,并且不会出现性能下降——人-机模拟速度跟机器人-机器人模拟速度类似。

人在回路

Habitat 3.0的另一个关键特征,就是「人在回路」了。通过鼠标、键盘或VR,我们可以实现效果惊人的人机交互控制。完成任务后,系统会收集机器人的策略和数据,并进行人机交互的评估。

社交任务

此外,Habitat 3.0还可以模拟多种真实的社交场景。比如在被称为社交导航的任务中,机器人需要在保持安全的同时找到并跟随人类。在另一项任务中,机器人需要和人类共同协作,完成诸如整理房间的任务。这时人和机器人需要分别走到目标位置,其中,机器人需要想办法尽可能高效地和人类共同实现这一目标。经过训练的机器人,可以实现各种社会行为!除了能和人类保持安全距离外,机器人还会在必要时自己后退,给人类留出走路的空间。

让AI智能体在真实世界和人类互动

以往,当我们想到AI助手时,想到的通常是基于网络的聊天机器人,或者智能扬声器。而Meta的研究者们一直希望实现具备通用智能的具身AI Agent,让它们可以感知环境,在数字和物理世界中和人类沟通、帮助人类。其中一个愿景,就是做出全天可穿戴的AR头显,供人类使用。另外,研究者们还在改进社交智能机器人背后的技术,让它们帮人类干家务,还能适应人类对于伴侣要求的个性化偏好。工作主要集中在深入研究嵌入式系统,让下一代的AR和VR体验更佳。不过,在物理硬件(无论是机器人还是AR眼镜)上与真人一起训练和测试具身AI智能体,会有一些可扩展性限制,还可能存在安全问题。这就需要建立标准化的基准程序。因此,Meta的研究者们开发了一套新工具,用于跨模拟器、数据集的机器人研究。他们还开发了一个包含软硬件的技术堆栈,让这方面的研究更容易,也更实惠。为了快速提高机器人能力,研究者在模拟器中开发和测试新的算法和模型,然后移植到实体机器人上。几年以来,Habitat模拟器取得了许多显著的进步。在Habitat 1.0训练的虚拟机器人,能以每秒超过10,000步(SPS)的速度,在物理世界房屋的三维扫描中导航。Habitat 2.0 引入了交互式环境(例如,可拿起的物品、可打开的抽屉),并训练虚拟机器人通过重新排列物品来清理房屋。Habitat 3.0在此基础更进一步,能够同时支持机器人和人形化身,实现人机协作完成日常任务,比如整理客厅、在厨房准备食谱。这就开辟了新途径,研究人类与机器人在多样化、逼真、视觉和语义丰富的任务中的协作。另外,Habitat 3.0还支持具有逼真外观、自然步态和动作的人形化身,可以模拟逼真的低级和高级交互。这些人形化身既可由学习到的策略控制,也可由真人通过「human-in-the-loop」界面进行控制。这个界面支持键盘、鼠标以及VR头显。人与机器人在模拟环境中的共存,使人类能够首次在类似家庭的环境中,在有人形化身存在的情况下,学习机器人AI策略,完成日常任务,并对其进行评估。这无疑具有重大意义——1. 强化学习算法通常需要数百万次的迭代,才能学习到有意义的知识,因此在物理世界中进行这些实验可能,需要数年时间。而在模拟实验中,几天就能完成。2. 在物理世界的不同房屋中收集数据是不切实际的,因为这需要将机器人移动到不同的地方,还要设置环境。而在模拟中,可以在几分之一秒内改变环境,然后立马在新环境中开始实验。3. 如果模型没有训练好,机器人就有可能破坏环境,或者伤害物理世界中的人。而模拟器能够让研究者在安全的环境中测试方法,然后再将其部署到物理世界中,这样就保证了安全。4. 当今最先进的AI模型,需要大量数据进行训练,而模拟使研究者能够轻松地扩大数据收集规模。而在物理世界中,数据收集的成本可能相当高,速度也会很慢。而且,研究者还提出了两个高度相关的任务和一套基准,以建立社会化具身AI领域的基准。第一个任务是「社交整理」,涉及机器人和人形化身协同工作,执行一系列拾放任务,比如清理房屋。在这项任务中,机器人和人类必须协调行动,以实现共同目标。大规模的模拟训练后,就会产生这种智能行为。第二项任务是「社交导航」,让机器人在保持安全距离的情况下,定位并跟踪一个人。

Habitat合成场景数据集

三维场景数据集对于在模拟环境中训练机器人来说至关重要。目前,虽然已经有不少数据集可支持对训练数据进行扩展,但我们并不了解数据集规模与真实性之间的权衡。为此,Meta推出了一个全新的合成三维场景数据集——HSSD-200。它由211个代表实际室内环境的高质量三维场景组成,包含了来自466个语义类别的18,656个物理世界物体模型。与之前的数据集相比,更加接近真实的物理场景。具体来说,HSSD-200提供了更高质量,且完全由人工制作的3D室内场景,并包括了与WordNet本体相对应的细粒度语义分类。此外,HSSD-200的资产压缩功能,还可实现高性能的人工智能模拟。场景方面,HSSD-200采用了Floorplanner室内设计界面进行制作,布局主要是对实际房屋的再现。其中,单个对象由专业的3D艺术家创建,在大多数情况下与实际的家具和电器相匹配。实验表明,规模较小但质量较高的HSSD-200数据集,可以生成以物品为导航目标的(ObjectNav)智能体,其性能可与在规模更大的数据集上训练的智能体相媲美。而且,在HSSD-200上训练智能体所需的场景数量,要少2个数量级——与使用10,000个ProcTHOR场景训练出的智能体相比,使用122个HSSD-200场景训练出的智能体对HM3DSem物理世界场景的泛化效果更好。

HomeRobot

共用、共享平台是机器学习进步的重要组成部分,但在机器人领域,由于很难复制和扩展硬件成果,因此十分缺少类似的平台。对此,Meta为可重现的机器人研究平台提出了三个目标:- 一颗激励人心的北极星:平台需要提供具有指导性的北极星任务,以此激励研究人员并帮助他们开展工作。其中,他们还可以在有趣的真实世界问题上对各种方法进行比较。比如「开放词汇移动操纵(OVMM)」——在任意未知的环境中拾取物体,并将其放到指定位置。这需要非常强大的长期感知能力和场景理解能力,而且对各类的任务都非常有用。- 软件能力:平台需要提供一些抽象界面,使机器人更容易用于各种任务,包括导航和操作。- 社区:平台需要鼓励开发者参与进去,并尝试围绕代码库建立一个社区。为了推动这一领域的研究,Meta推出了一个全新的HomeRobot库,实现了对Hello Robot Stretch的导航和操纵功能的支持。

项目地址:https://github.com/facebookresearch/home-robot具体来说,HomeRobot有两个组件:1. 模拟组件:提在新的、高质量的多房间家庭环境中使用大量且多样的对象集;2. 物理世界组件:为低成本的Hello Robot Stretch以及波士顿动力公司的产品提供软件堆栈,以鼓励在各实验室之间复制物理世界实验。此外,HomeRobot还提供了一个非常友好的软件栈,从而让用户能够快速设置机器人,并立即进行测试。其特点包包括:- 可移植性:每项任务的模拟和物理世界设置之间都有统一的状态和动作空间,为使用高层次的动作空间(如预设抓取策略)或低层次的连续关节控制来操作机器人,提供了简便的方法。- 模块化:感知和行动组件支持高层次的状态(如语义地图、分割点云)和高层次的行动(如前往目标位置、拾取目标物体)。- 基准智能体:使用这些功能为OVMM提供基本功能的策略,以及构建更复杂智能体的工具,其他团队可以在此基础上进行开发。在HomeRobot OVMM基准中,智能体可在家居环境中抓取新奇物品,并将其放入或放在目标容器中。其中,Meta采用强化学习和启发式(基于模型)基线,展示了导航和放置技能可以从模拟到物理世界转移。结果表明,基线可以在物理世界中实现20%的成功率。参考资料:https://ai.meta.com/blog/habitat-3-socially-intelligent-robots-siro/




相关推荐

  • 超全!我常用的70个数据分析网址
  • 一段话让模型自曝「系统提示词」!ChatGPT、Bing无一幸免
  • LLaMA2上下文长度暴涨至100万tokens,只需调整1个超参数|复旦邱锡鹏团队出品
  • 用GPT-4训练机器人,英伟达最新Agent开源:任务越复杂越拿手
  • 马斯克xAI首个研究成果发布!创始成员杨格&姚班校友共同一作
  • NeurIPS 2023 | 跨模态提示:微调大型预训练模型适应音视频下游任务
  • 数学逻辑和计算机程序代码之间的深层联系:互为镜像
  • ​参数少近一半,性能逼近谷歌Minerva,又一个数学大模型开源了
  • 评论能力强于GPT-4,上交开源13B评估大模型Auto-J
  • 聚焦计算赋能创新,第三届智能计算创新论坛成功举行
  • 有了GPT-4之后,机器人把转笔、盘核桃都学会了
  • 人工智能的第一性原理是什么?
  • Java 21 虚拟线程详解
  • 有哪些值得计算机专业学生加入的国企?
  • 聊一聊我眼中的阿里P8、P9及以上人的水平
  • Github Copilot Chat 公测:已可在 Visual Studio 和 VS Code 中使用
  • 极客时间六周年 • 致用户信 | 极客时间
  • 一夜之间,有价无货!英伟达消费级 RTX 4090显卡遭全面下架,最高售价接近4万
  • B 站广州研发工作室解散;外媒曝光苹果中国区丑闻;OpenAI 被曝已叫停新大模型项目 | Q资讯
  • 开源云开发,有时是个苦差事