麻省理工学院林肯实验室开发人工智能展示其决策过程
2018-12-28 11:08:17爱云资讯1232
在麻省理工学院林肯实验室智能与决策技术小组发表的一篇论文中(“ 设计的透明度:弥合视觉推理中的性能与可解释性之间的差距 ”)今年夏天在计算机视觉和模式识别会议(CVPR)上发表,研究人员描述了执行“人类”推理以回答有关世界的问题的系统 - 即图像的内容。

神经网络 - 被称为透明度设计网络(TbD-net) - 用热图描绘其视觉分析。在对照片进行解读时,它会以明亮,易于识别的颜色(用于研究人员的说法中的“注意力掩模”)突出显示感兴趣的项目,这些颜色代表模块的输出,或专门用于执行特定任务的小型神经网络。
麻省理工学院新闻报道称,“就像工人下线一样,每个模块都会在模块出现之前建立最终产生最终正确答案的模块。” “作为一个整体,TbD-net利用一种AI技术来解释人类语言问题并将这些句子分解为子任务,然后是多种计算机视觉AI技术来解释图像。”
那么它怎么能回答像“大金属立方体是什么颜色”这样的问题呢?首先,模块会隔离大对象。然后第二个模块将识别哪些对象是金属。第三个将查找符合先前标准的立方体,最后,第四个将确定对象的颜色。
在涉及85,000个训练图像和850,000个问题的测试中,TbD-net的准确度为98.7%,优于其他基于神经模块网络的方法。更重要的是,它实现了最先进的性能 - 99.1%的准确度 - 部分归功于它产生的热图插图,这使得研究人员可以非常精确地调整它以进行后续测试。
这篇论文的作者认为,对神经网络推理的这种洞察力可能对建立用户信任大有帮助。
最近几个月,许多公司,政府机构和独立研究人员试图解决人工智能中所谓的“黑匣子”问题 - 一些人工智能系统的不透明性 - 并取得了不同程度的成功。
2017年,美国国防高级研究计划局启动了DARPA XAI计划,旨在生产“玻璃盒”模型,在不牺牲性能的情况下轻松理解。今年8月,IBM的科学家们提出了一份人工智能的“情况说明书”,它将提供有关模型漏洞,偏见,对抗性攻击易感性和其他特征的信息。微软,IBM,埃森哲和Facebook开发了自动化工具来检测和减轻AI算法中的偏差。
“人工智能系统具有改变我们生活和工作方式的巨大潜力...... [但]这些[透明度]问题必须得到解决才能让人工智能服务得到信任,”IBM研究院和联合会的AI基金会负责人Aleksandra Mojsilovic说道。 8月份接受VentureBeat采访时,人工智能科学促进社会福利计划。
相关文章
- 三维天地LabAsia 2025参展纪实:数智化解决方案赋能东南亚实验室升级
- 从实验室到产线的量子跃迁 国器传感打响技术突围战
- 十九岁 向未来出发丨汇付天下成立区块链技术实验室,多个AI项目精彩亮相
- Interspeech 2025 | 腾讯优图实验室4篇论文入选,涵盖超声波活体检测、神经语音编解码、语音合成等方向
- 西顿照明与香港理工大学大亚湾研究院,共建AI智慧光健康实验室
- ICCV 2025 | 腾讯优图实验室大模型8篇论文入选,涵盖风格化人脸识别、AI生成图像检测、多模态大语言模型等方向
- 因智而生、向智而动 中国移动与中兴通讯“联创+”自智网络开放实验室揭牌
- 中国移动“混沌宙元”量子计算实验室开放日成功举办
- 最高10倍加速!北京大学联合腾讯优图实验室将 GQA 改造成 MLA形式
- 亚信科技、跨境数科助力上海打造“国际数据港”,成立联合实验室
- ACL 2025 | 腾讯优图实验室大模型4篇论文入选,涵盖智能体、角色扮演、自动推理等方向
- Opentrons AI颠覆实验室自动化:零代码操作移液工作站,合成生物学研发效率提升300%
- 中国移动与中兴通讯“联创+”联合实验室揭牌
- 各种行业实验室缺乏合适的管理软件,就用魔方网表定制
- 从泰国职教到塞尔维亚AI实验室 网龙AI教育生态落地联合国倡议
- 从-36℃到68℃的硬核挑战:科龙空调实验室直播展现静省电Max超强性能