MIT最新AI研究,让机器人利用触觉感知物体
2019-06-17 18:00:33爱云资讯963
麻省理工学院计算机科学及人工智能实验室(CSAIL)的研究人员表示,在不久的将来,机器人将能够通过触觉来感知物体。一篇最新的相关论文将于下周在加利福尼亚长滩市的计算机视觉与模式识别会议上公开,这篇论文描述了一种人工智能系统,它可以通过触觉信号生成触摸物的视觉形象,还能根据视觉数据来预测物体的触感。
“通过观察物体的表面,我们的模型可以预测某个平面或棱角的触感。通过触摸物体,我们的人工智能模型可以根据触感来构建感知到的环境。将这两种感知数据相结合,机器人的性能就会得到优化,它在搬运或抓取某个物体时所需的数据就更少,”CSAIL博士生Yunzhu Li说道,他与他的导师Russ Tedrake、Antonio Torralba以及另一位博士后Jun-Yan Zhu一起撰写了本篇论文。
这支团队的系统采用了生成式对抗神经网络(GAN),这种神经网络包含了生成模型和判别模型,前者负责生成样本,后者负责辨别生成样本和现实样本的不同。该系统能将触觉数据产生的图像拼接起来。训练时它采用了VisGel的数据,该数据库拥有300万组视觉和触觉的配套数据,其中包含1.2万个视频片段,对象多达200种(包括工具、织物和家具产品等)。它会预测出形状和接触点的材料,然后与参考图片进行对比。
例如你给出一只鞋子上某个点的触觉数据,这个模型就能确定出这个接触点到底在什么地方。
这些参考图片能为目标物体或环境的细节进行编码,让机器学习模型不断自我完善。
这些研究人员指出,目前的数据集还非常有限,对于现有的系统而言,物体的颜色、柔软度等细节还很难预测。但很显然他们的研究会为更多的人机一体化打下基础,尤其是针对光线昏暗甚至黑暗密闭空间中的任务。
相关文章
- DigiCert任命行业资深人士Amit Sinha为首席执行官
- AISummit全球人工智能技术大会,洞悉AI技术的现在与未来
- 凭借微创植入式柔性脑机接口技术 脑虎科技荣登MIT TR50榜单
- 涵盖 12 大 AI 热点技术方向, AISummit 全球人工智能技术大会2022震撼来袭!
- WAVE SUMMIT 2022文心大模型完成体系布局 百度吴甜提出大模型产业落地关键路径
- 十个大模型、六大发布 WAVE SUMMIT 2022飞桨持续夯实AI底座
- WAVE SUMMIT 2022将于5月20日召开 飞桨将迎来大规模升级
- 4月26日芯启源将亮相全球首届智能网卡峰会(SmartNICs Summit)
- MIT团队开发基于智能手表的系统 在佩戴者身体过热时向其发出警告
- MIT研究人员发明可根据视角改变其外观的3D打印物体
- TransCenter: MIT&INRIA开源多目标物体跟踪算法
- MIT研发高效解码算法和芯片,可用于AR/VR
- 全城WAVE SUMMIT 提前预定,百度邀你共赴一场初夏的AI盛宴
- MIT和马里兰大学研究小组发现新的量子算法可破解非线性方程
- 让病毒“说话”:MIT团队使用AI预测HIV及新冠病毒的突变方向
- openEuler Summit 2020成功召开,探索技术创新无限可能