反智主义盛行 美国可能输掉全球人工智能竞赛
2018-08-09 11:17:32AI云资讯1898

一名科学家在苏黎士大学的人工智能实验室里调试一台名叫ROBOY的人型机器人(16.680,0.48,2.96%)。EThamPhoto—Getty Images
如果美国真的想领跑全球人工智能竞赛,那么政策制定者最应该避免的,就是用一套低效的监管制度扼杀人工智能的发展潜力。
一个国家徜若在人工智能领域里赢得了全球的主导权,则必将获得巨大的经济利益,其经济增长率在2035年前甚至可能提高一倍。可惜美国在如何开展竞争上却没有得到很好的建议。
过去一年里,中、日、英、法、印、加等国都启动了由政府支持的大规模人工智能项目,以在该领域里拔得头筹。虽然特朗普政府也开始关注人工智能技术的发展,但在国家层面上,美国国内并未形成一个有凝聚力的战略与中日等国抗衡。美国政界反而兴起了一股反智主义,决策者们更多担心人工智能的潜在危害,呼吁给这项技术念“紧箍咒”的多,支持其发展的少。
人工智能确实给社会带来了一些独特的挑战——比如它有可能加剧刑事司法系统中的种族偏见,而自动驾驶汽车技术也产生了一些伦理问题。至于如何解决这些挑战,也有人给出了一些解决方案,目前最流行的观点,是要确立人工智能算法的透明性原则或可解释性原则,或者建立一个最高层级的人工智能监管机构。然而这些措施不仅可能无助于解决问题,反而会严重拖慢美国人工智能技术的发展和应用速度。
透明性原则的支持者们认为,应该要求人工智能公司公开源代码,让监管机构、记者和有责任心的公民可以对这些代码进行审查,从而发现任何不法行为的迹象。不过以人工智能系统的复杂性,我们很难相信这种方法会有什么效果,反而会使那些奉行“拿来主义”的国家的企业更容易偷到美国的原代码。这种做法显然会阻碍美国在全球人工智能竞赛中的竞争,使美国企业更不愿意投资这项技术。
可解释性原则的支持者则认为,政府应要求公司采取必要措施,使终端用户有能力解读他们的算法——比如描述算法的工作原理,或者只允许使用那些能够解释清楚其决策机制的算法。比如欧盟就把算法可解释性作为评估人工智能潜在风险的一个主要指标。欧盟的《通用数据保护条例》(GDPR)规定,一个自然人有权获得关于算法决策机制的“有意义的信息”。
可解释性原则可能是个合理的要求,而且它已经成为了刑事司法或消费金融等很多领域的标准。但是在某些领域里,你甚至无法要求一个自然人去解释他的决策机制,你又怎能将这个要求硬套在人工智能身上呢?非要这样的话,企业只得继续依赖真人进行决策,以避免监管压力,而这则会不可避免地造成效率和创新的迟滞。
另外,可解释性与准确性是鱼与熊掌的关系。一个算法越复杂,其准确性一般越高;但一个算法越复杂,它就越难以解释清楚。这种矛盾是始终存在的。两个变量的线性回归,肯定要比200个变量的线性回归容易解释。算法使用的数学模型越先进,这种矛盾就愈发尖锐。
因此,可解释性原则只有在可以牺牲准确性的条件下才能实现,而这种条件显然太少了。比如对于自动驾驶汽车技术,为了可解释性而牺牲准确性,后果无疑是灾难性的。导航精度哪怕稍稍损失一点,或者计算机某一次不小心将行人和广告牌上的人像搞混了,都会造成巨大的危险。
另一个颇为流行的馊主意,是建立一个全国性的类似于美国食品与药品管理局(FDA)和美国国家运输交通安全委员会(NTSB)的人工智能监管机构。埃隆·马斯克就坚决支持这一倡议。持这种观点的人好像把搞人工智能当成了卖衣服和快餐,似乎认为所有人工智能算法都对社会有同样的危险性。
然而人工智能系统的决策机制也跟人类一样,是受一系列行业法律法规约束的,其危险性有高有低,主要取决于它的应用场景。你不能只因为它是一个人工智能算法,就对一个低风险的人工智能产品搞监管,这必然会显著阻碍这项技术的研发,进而限制美国企业采用人工智能技术的能力。
好在政策制定者们还是有一种可行的办法,既能解决人工智能的潜在威胁,又不会阻碍它的发展——那就是算法责任原则。它是一种低干涉的监管模式,企业只需通过一系列控制机制,验证他们的人工智能系统是不是按照设计意图运行,能不能识别和纠正有害结果。它既不会像透明性原则那样危害知识产权,也不会像可解释性原则那样阻碍技术发展,企业仍然可以部署先进的创新人工智能系统。
但在某些特殊情况下,根据实际需要,也可以要求企业解释其决策机制,不管人工智能系统在这些决策中有没有被使用。另外根据算法责任原则,各个行业的监管机构也将能够理解各自领域内的人工智能技术,而不需要建立一个全国性的最高监管机构。这样也就大大降低了人工智能部署的壁垒。
如果美国真的想领跑全球人工智能竞赛,那么政策制定者最应该避免的,就是用一套低效的监管制度扼杀人工智能的发展潜力。如果政策制定者担心人工智能的安全问题或是公平问题,他们完全可以采用算法责任原则来化解他们的担忧,而不是当美国刚站在人工智能竞赛的起跑线上,就去一棍子打断他的腿。
作者:Joshua New(智库机构数据创新中心高级政策研究分析师,该机构主要研究数据、科技与公共政策的交集)
相关文章
- 智汇瓯江 智引未来:2025中国人工智能数字创新大会在温州成功举办
- 苹果人工智能服务器芯片Baltra或将用于执行人工智能推理任务
- 人工智能数据处理和质量测评中心全栈服务体系正式发布
- 中国开发区协会人工智能产业专业委员会在京成立
- 中国信通院政策与经济研究所李强治:我国人工智能治理迈入务实新阶段,场景与工具同步落地
- 中国信通院产业与规划研究所张桢:人工智能与城市全域数字化转型融合,正成为推动城市高质量发展的核心引擎
- 中国信通院产业与规划研究所徐志发:人工智能驱动数字消费深度变革,“十五五”时期将进入壮大发展的关键阶段
- 中国信通院云计算与大数据研究所栗蔚:智能算力重塑计算和网络架构,普惠化服务人工智能
- 中国信通院信息化与工业化融合研究所刘默:人工智能技术创新赋能制造业智能化迈入新阶段
- 中国信通院人工智能研究所魏凯:人工智能正从工具升级为伙伴,全面赋能高质量发展
- 中国心理科技园开园暨中国心理人工智能算力中心在京成立 心理产业迈入2.0时代:“心理AI产教融合生态”
- 蘑菇云荣膺教育强国论坛2025年度科技创新教育品牌 以创新产品赋能人工智能通识教育
- 英伟达在AI图形处理器上部署训练OpenAI的GPT-5.2,为人工智能产业提速
- 2025 全国人工智能应用场景创新挑战赛AI Agent全球专项赛线下半决赛新闻发布会在深圳召开
- 美图公司RoboNeo入选2025人工智能年度榜单
- 贵港移动公司共建人工智能联合实验室,推动产学研融合与产业数字化
人工智能企业
更多>>人工智能硬件
更多>>人工智能产业
更多>>人工智能技术
更多>>- 云知声Unisound U1-OCR大模型发布!首个工业级文档智能基础大模型,开启OCR 3.0时代
- 基石智算上线 MiniMax M2.5,超强编程与智能体工具调用能力
- 昇腾原生支持,科学多模态大模型Intern-S1-Pro正式发布并开源
- 百度千帆深度研究Agent登顶权威评测榜单DeepResearch Bench
- 在MoltBot/ClawdBot,火山方舟模型服务助力开发者畅享模型自由
- 教程 | OpenCode调用基石智算大模型,AI 编程效率翻倍
- 全国首个!上海上线规划资源AI大模型,商汤大装置让城市治理“更聪明”
- 昇思人工智能框架峰会 | 昇思MindSpore MoE模型性能优化方案,提升训练性能15%+









