人工智能算法教机器人学走路:从零开始,耗时两小时
2019-01-03 14:28:04AI云资讯1254
2018年12月,来自加利福尼亚大学伯克利分校和谷歌大脑的科学家们开发出了一套人工智能系统,它可以让机器人自己学会走路。这一成果发表于预印本网站arXiv.org上,论文题为《通过深度强化学习来学习走路》(Learning to Walk via Deep Reinforcement Learning)。
在整个训练过程中,研究人员需要“手动”把走到缓坡尽头的机器人“请”回缓坡的起点以重新开始新一轮的练习,这一手动复位的过程稍显繁琐。不过,从结果来看,这一耗时2小时的学步过程实属高效,不少网友就此评价称“AI真是个好老师”。
在人工智能领域中经常提到“强化学习”的概念,这是一种使用奖励或惩罚的驱动来实现特定目标的人工智能方法,目的是获得一个策略以指导行动。比如围棋博弈中,这个策略可以根据盘面形势指导每一步应该在哪里落子。而在四足机器人Minitaur学习走路的过程中,这个策略可以根据地形等要素告诉机器人下一步应该怎么走。
强化学习会从一个初始的策略开始。通常,初始策略不一定很理想,正如四足机器人Minitaur在刚开始学走路的时候所表现的那样。不过。在学习的过程中,作为决策主体的四足机器人Minitaur会通过行动和环境进行交互,不断获得反馈,即回报或者惩罚,并根据反馈调整优化策略。
强化学习是一种非常强大的学习方式。持续不断的强化学习甚至能够获得比人类更优的决策机制。最好的例子就是阿尔法狗。2016年,谷歌通过深度学习训练的阿尔法狗(AlphaGo)程序以4比1的比分战胜了曾经的围棋世界冠军李世石。它的改进版更在2017年战胜了当时世界排名第一的中国棋手柯洁,其令世人震惊的博弈能力就是通过强化学习训练出来的。
但强化学习也有其局限性。它需要大量数据,在某些情况下需要数万个样本才能获得良好的结果。这就需要四足机器人Minitaur像阿尔法狗那样进行多次训练,但过多的训练可能会对四足机器人造成损坏。
因此,这项“学习走路”的研究选择了强化学习的“升级版”——深度强化学习的方法,将深度学习的感知能力和强化学习的决策能力相结合。这种方法可以直接根据输入的图像进行控制,是一种更接近人类思维方式的人工智能方法。
用研究人员的话说,为了“使一个系统在没有模拟训练的情况下学习运动技能成为可能”,他们采用了一种名为“最大熵RL”强化学习框架。最大熵RL可以优化学习策略,以最大化预期收益。在这个框架中,人工智能代理通过从策略中抽取某些行动并接收奖励的方式不断地寻找最佳的行动路径。
研究人员表示,“据我们所知,本实验是在现实世界中不经过模仿和预训练而直接学习欠驱动四足运动的第一个深度强化学习算法案例。
2018年5月,同个课题组的研究人员曾在arXiv.org上发表了另一篇关于四足机器人Minitaur的研究论文。当时,研究人员使用深度强化学习的方法使Minitaur从零开始学习四足运动,并最终实现了小跑和疾驰。

在研究人员公布的视频资料中,四足机器人Minitaur试图走过一个平整的缓坡。在视频开头,时间显示为0,这是四足机器人学习走路的开始。此时的四足机器人Minitaur如一个蹒跚学步的婴儿,时而摇晃、时而原地踏步,它尝试着迈开“腿”前进,但身体却“诚实”地留在原地,整个行走过程进展缓慢。转变发生在Minitaur学习走路的第18分钟,这时它已经可以持续性地前进了,但平衡性稍显不足。后续的练习中,Minitaur的步伐逐渐变得稳定且迅速。54分钟、72分钟、108分钟,不到2小时的时间,Minitaur基本学会了快速且平稳地走过缓坡。
这就是四足机器人Minitaur学习走路的全过程。加利福尼亚大学伯克利分校和谷歌大脑的科学家们研发出的人工智能算法“教”会了这个四足机器人穿越熟悉或陌生的地形。在整个训练过程中,研究人员需要“手动”把走到缓坡尽头的机器人“请”回缓坡的起点以重新开始新一轮的练习,这一手动复位的过程稍显繁琐。不过,从结果来看,这一耗时2小时的学步过程实属高效,不少网友就此评价称“AI真是个好老师”。
在人工智能领域中经常提到“强化学习”的概念,这是一种使用奖励或惩罚的驱动来实现特定目标的人工智能方法,目的是获得一个策略以指导行动。比如围棋博弈中,这个策略可以根据盘面形势指导每一步应该在哪里落子。而在四足机器人Minitaur学习走路的过程中,这个策略可以根据地形等要素告诉机器人下一步应该怎么走。
强化学习会从一个初始的策略开始。通常,初始策略不一定很理想,正如四足机器人Minitaur在刚开始学走路的时候所表现的那样。不过。在学习的过程中,作为决策主体的四足机器人Minitaur会通过行动和环境进行交互,不断获得反馈,即回报或者惩罚,并根据反馈调整优化策略。
强化学习是一种非常强大的学习方式。持续不断的强化学习甚至能够获得比人类更优的决策机制。最好的例子就是阿尔法狗。2016年,谷歌通过深度学习训练的阿尔法狗(AlphaGo)程序以4比1的比分战胜了曾经的围棋世界冠军李世石。它的改进版更在2017年战胜了当时世界排名第一的中国棋手柯洁,其令世人震惊的博弈能力就是通过强化学习训练出来的。
但强化学习也有其局限性。它需要大量数据,在某些情况下需要数万个样本才能获得良好的结果。这就需要四足机器人Minitaur像阿尔法狗那样进行多次训练,但过多的训练可能会对四足机器人造成损坏。
因此,这项“学习走路”的研究选择了强化学习的“升级版”——深度强化学习的方法,将深度学习的感知能力和强化学习的决策能力相结合。这种方法可以直接根据输入的图像进行控制,是一种更接近人类思维方式的人工智能方法。
用研究人员的话说,为了“使一个系统在没有模拟训练的情况下学习运动技能成为可能”,他们采用了一种名为“最大熵RL”强化学习框架。最大熵RL可以优化学习策略,以最大化预期收益。在这个框架中,人工智能代理通过从策略中抽取某些行动并接收奖励的方式不断地寻找最佳的行动路径。
研究人员表示,“据我们所知,本实验是在现实世界中不经过模仿和预训练而直接学习欠驱动四足运动的第一个深度强化学习算法案例。
2018年5月,同个课题组的研究人员曾在arXiv.org上发表了另一篇关于四足机器人Minitaur的研究论文。当时,研究人员使用深度强化学习的方法使Minitaur从零开始学习四足运动,并最终实现了小跑和疾驰。
相关文章
- 上海交通大学人工智能赋能大健康战略论坛暨“百卅交大·终身思源”校友返校日活动成功举办
- 富光携手全球青少年人工智能竞赛,以智能科技护航青少年科创梦想
- 微通人工智能科技到访百度智能云创新基地 共探大模型落地与企业AI转型新路径
- 中国移动联合主办2026中关村论坛“量子科技与人工智能融合发展”平行论坛
- 维基百科禁止人工智能生成文章
- 苹果或将允许用户选择人工智能聊天机器人接入Siri
- 光云科技旗下萝卜塔智能体入选“2026人工智能应用创新优秀成果”
- 良策金宝AI 荣获 2026 GAIC“年度工程AI创新领军奖”,以垂直大模型推动“人工智能+工程设计”深度融合
- 技术创新赋能千行万业 昇腾人工智能伙伴峰会2026圆满举办
- AI+ Power 2026 香港科技博览黄金展位火热预定中,解锁人工智能及科技的出海机遇
- 芯盾时代创始人孙悦荣获“2025年度吴文俊人工智能科学技术奖”科技进步一等奖
- 受人工智能需求影响,英特尔消费级CPU产品或面临大规模涨价
- 北京人工智能产业联盟AI智能体专委会正式成立 共筑智能体产业协同创新生态
- 量子科技里程碑式跨越,微美全息深化“人工智能+量子”战略突破开启新局
- 攻坚数据智能核心技术 中国移动项目获国内人工智能领域最高奖
- 学而思“AI未来星・2026青少年人工智能科普活动”在京启动









