不需要人类知识,AI 也能以更少步数复原任意 3 阶魔方
2018-06-20 09:34:04AI云资讯769
但是事实上对于算法来说,要解出魔术方块的谜题和下棋是完全不同种类的任务。
过去在棋类游戏中展现出超人类表现的算法,都是属于传统的「强化学习」(RL)系统,这类型 AI 在确定某些特定的一步是实现整体目标的积极步骤时,便会获得奖励,进而使系统产生追求最大利益的习惯性行为,然而当 AI 无法确定这一步是否有益时,强化学习自然就无法发挥作用。
如果还是无法理解,试着这么想吧:在进行棋类游戏时,系统可以轻易去判定一个动作究竟是属于「好棋」或「坏棋」,但是在转动魔术方块时,你能够说出有任何特定的一步,是改善整体难题的关键吗?
从外观上来看,魔术方块是个很单纯的益智玩具,然而因为 3D 立体的特性,这让一般常见的 3 阶魔术方块就已有着惊人的近 4.33×1019 组合,而在其中,只有六面都是相同颜色的状态才能成为「正确解答」。
过去人们已经研究出许多不同算法和策略来解决这项难题,但 AI 研究人员真正的目标还是希望能像 AlphaGo Zero 那样,让 AI 在没有任何历史知识的情况下,学会自行应对随机的魔术方块难题。
而近期加利福尼亚大学 Stephen McAleer 和团队透过一种被称为「自学叠代」(autodidactic iteration)的 AI 技术打造出「DeepCube」系统,成功让 AI 在面对任何乱序的 3 阶魔术方块时都可以成功找出正确解答。
根据团队解释,自学叠代是一种全新的强化学习算法,与过去棋类游戏算法的处理方式不同,它采取了「反着看」的内部奖励判断机制:当 AI 提出一个动作建议时,算法便会跳至完成的图形开始往前推导,直到到达提出的动作建议,藉以判断每一步动作的强度。
虽然听来相当的繁杂,但这让系统能够更熟悉每一步动作,并得以评估出整体强度,一但获得足够数量的数据,系统便能以传统的树状搜索方式去找出如何移动最好的方法。
▲ DeepCube 自行找出的一种策略 aba-1,许多玩家也经常使用。(Source:arXiv via Stephen McAleer)
团队在研究中发现,DeepCube 系统在训练中自己找出了许多与人类玩家相同的策略,并在经过 44 个小时的自学训练后,已经能够在没有任何人为干预下,在平均 30 步以内复原任何随机乱序魔术方块──这些「最佳解答」不是和人类最佳表现一样好,就是比这些表现更好。
McAleer 和团队打算未来将在更大、更难解决的 16 阶魔术方块上进行测试,这项全新的系统将有助于 AI 应用更全面化,像是生物物理学上重要的蛋白质摺叠(Protein Folding)问题或也有望得以解决。
相关文章
- 中东AI迎来中国力量 华为腾讯云万兴科技等深度赋能区域数字化升级
- 中兴通讯助力中国移动打造银发一族AI定制手机
- 鲸鸿动能亮相中国国际广告节&亚洲广告大会,全场景AI驱动增长
- 华为浏览器资讯助手:AI赋能,开启资讯浏览新体验
- 升级版“蓝心小V”亮相,豆包大模型助力vivo打造AI原生体验
- 荣耀发布8大AI场景解决方案:以“全场景覆盖”推动终端智能普惠落地
- 阿联酋数据中心建设热潮助力AI雄心与数字主权
- IBM与客户共谱AI长期发展蓝图
- 重磅!荣联科技集团凭借AI技术实力入选工信部重点实验室
- 阿里巴巴团队重磅发布:让AI像苏格拉底一样自我学习,仅用100道题就能碾压GPT-5
- 英特尔称服务器CPU将重新火热:AI工作负载推动增长
- 阿里夸克“C计划”再曝新动向:一款AI浏览器或年底发布
- 全国盛会·智育未来——大沩赋能AI体育教育高质量发展
- 京东11.11直播技术全面升级,立影3D技术、JoyAI大模型重构沉浸式购物体验
- 天猫魔屏C3 Max登顶千元投影热销第一,定义高亮“真AI投影”新标杆
- openvela首届全球开发者大会圆满落幕,NuttX创始人Greg亲临现场,共话AIoT生态









