新智元报道
编辑:Aeneas 好困论文地址:https://ai.meta.com/static-resource/habitat3
项目地址:https://github.com/facebookresearch/habitat-lab/tree/v0.3.0其实,Meta在今天同时宣布了三项重大进展——1. Habitat 3.0是第一个支持在多样化、逼真的室内环境中,就人机交互任务进行大规模训练的模拟器。它能同时支持机器人和人形化身,让人类和机器人在家庭环境中协作,比如帮忙打扫房间。2. Habitat合成场景数据集(HSSD-200),是由艺术家创造的三维数据集,包含211个场景中466个语义类别的18,000多个对象。HSSD-200在同类数据集中质量最高,可以训练导航智能体,对物理世界三维重建场景的泛化效果非常好,使用的场景数量也要少两个数量级。3. HomeRobot则是一个家用机器人助手硬件和软件平台,非常经济实惠,机器人可以在模拟和物理世界环境中,执行开放的词汇任务。在大规模学习上,Habitat 3.0在单GPU上每秒可以完成超过1000步。网友:能干家务的机器人什么时候出来
Habitat 3.0
让AI智能体在真实世界和人类互动
Habitat合成场景数据集
HomeRobot
项目地址:https://github.com/facebookresearch/home-robot具体来说,HomeRobot有两个组件:1. 模拟组件:提在新的、高质量的多房间家庭环境中使用大量且多样的对象集;2. 物理世界组件:为低成本的Hello Robot Stretch以及波士顿动力公司的产品提供软件堆栈,以鼓励在各实验室之间复制物理世界实验。此外,HomeRobot还提供了一个非常友好的软件栈,从而让用户能够快速设置机器人,并立即进行测试。其特点包包括:- 可移植性:每项任务的模拟和物理世界设置之间都有统一的状态和动作空间,为使用高层次的动作空间(如预设抓取策略)或低层次的连续关节控制来操作机器人,提供了简便的方法。- 模块化:感知和行动组件支持高层次的状态(如语义地图、分割点云)和高层次的行动(如前往目标位置、拾取目标物体)。- 基准智能体:使用这些功能为OVMM提供基本功能的策略,以及构建更复杂智能体的工具,其他团队可以在此基础上进行开发。在HomeRobot OVMM基准中,智能体可在家居环境中抓取新奇物品,并将其放入或放在目标容器中。其中,Meta采用强化学习和启发式(基于模型)基线,展示了导航和放置技能可以从模拟到物理世界转移。结果表明,基线可以在物理世界中实现20%的成功率。参考资料:https://ai.meta.com/blog/habitat-3-socially-intelligent-robots-siro/