谷歌AI魔镜:看你手舞足蹈,就召唤出8万幅照片学你跳 | TensorFlow.js
2018-07-22 08:38:38AI云资讯1073
前两天,大家还在手机上胡写乱画。
而现在,如果你看到某个同事,对着电脑展现ta婀娜的舞姿。
△失败的“过电”
ta说不定是在扒舞。
有一点点可能,是在玩谷歌发布的又一个AI游戏,名字叫Move Mirror(动镜) 。
这个游戏里,只要打开摄像头,对着它做你最舒服的动作。
一瞬间,很多人就会“排队”来学着你跳了,一丝不苟,还原神韵。
恭喜你,领取了一呼百应成就。跟你一起跳舞的人,你基本没见过,可能还有从二次元来的朋友。
满足感是否油然而生?
对一个页游来说,这计算量也算是鞠躬尽瘁了。
姿势匹配,一气呵成
这个游戏里,负责捕捉你姿势的机器学习模型,叫做PoseNet。
看着你愉快地舞动,模型要实时捕捉你的姿势,全程不能松懈。
浑身上下,有17个关键点,每个姿态都是由这些点,共同描写的。
针对每一帧影像,系统都要搜遍80,000张的图库,从茫茫人海里找到姿势差不多的那一位。
这个数据集里,人类的姿态非常丰富,每一张都精挑细选。确实,不可能直接随机取样,每个人的姿势都差不多的话,就没用了。
虽然数据千姿百态,但搜索一次、找到目标,也只要15毫秒而已。
然后,系统迅速用千军万马拼出你的动感,也几乎不用什么时间。
需要的话,还可以把生成效果转成gif,分享到喷油圈——
这似乎是从宅舞向,变成了运动向,AI可能是个偏爱肌肉的妹子。
另外,游戏是用TensorFlow.js做的,不用存储你的影像,也不会把数据传到遥远的服务器里。
和谷歌AI以往的许多页游一样,低碳又安全。
花式PlayPlay
大家不妨一试,看看AI怎么理解你的动作,说不定还能发现一些神匹配。
如果想用TensorFlow.js,自己写一个观察姿势的小应用,可从文底的传送门前往GitHub项目页面,查看代码。
另外,在下比较期待,等哪天游戏里增加了面部动作的识别……
大概就可以更充分地观察,AI对动作的解读方式了。
问题来了,你想用什么姿势来考验它呢?
PlayPlay传送门:
http://g.co/movemirror
GitHub项目传送门:
https://github.com/tensorflow/tfjs-models/tree/master/posenet
DIY指南传送门:
https://medium.com/tensorflow/move-mirror-an-ai-experiment-with-pose-estimation-in-the-browser-using-tensorflow-js-2f7b769f9b23
△仅因姿势销魂而乱入
相关文章
- 谷歌“打样”智能眼镜新范式,中国厂商凭供应链强势突围
- 谷歌将在AI模式下增加信息来源索引范围
- OpenAI宣布进入“红色警报”状态,谷歌在人工智能领域加速追赶
- 再次受邀谷歌峰会丨华曦达 AI Home重塑运营商家庭业务
- 谷歌发布新一代大模型Gemini 3,AI搜索能力显著增强
- 谷歌利用新AI模型升级天气预报功能
- 芯原与谷歌联合推出开源Coral NPU IP
- 苹果人工智能服务计划采用定制版谷歌Gemini技术
- 谷歌推出AI虚拟试鞋功能,可即刻预览上脚效果
- 谷歌DeepMind的新型AI模型可通过网络搜索帮助机器人完成任务
- 谷歌新款Windows桌面应用为PC端带来类苹果Spotlight搜索栏
- 谷歌Waymo获准在旧金山提供机场接送服务
- 谷歌公布Gemini使用权限
- 苹果为Siri开发的AI搜索工具或将利用谷歌的Gemini AI模型来汇总网络信息
- 谷歌已完成AI眼镜开发,或由HTC代工量产
- 告别短信验证码:谷歌测试二维码验证技术,让短信更安全









