民法典确立数据隐私权 旷视倡议推进行业AI治理保护用户隐私

2020-05-29 16:08:12爱云资讯

5月28日,《中华人民共和国民法典》草案正式表决通过,标志着我国从民事单行法时代迈入民法典时代。其中,备受关注的人格权独立成编。从保障公众私生活“安宁权”,到构筑个人信息安全防火墙;从全面建立反性骚扰制度防线,到及时应对AI等新技术对人格权的挑战……民法典的出台将加速我国公民隐私权和个人数据权利等相关保护工作的展开,人工智能等行业的发展划下了合规发展的界限。事实上,在民法典草案提交审议前,旷视等人工智能企业早已在AI治理领域进行探索,并就数据安全、隐私保护等提出了自己的见解。


在2019年,旷视率先推出基于企业自身管理标准的《人工智能应用准则》,从正当性、人的监督、技术可靠性和安全性、公平和多样性、问责和及时修正、数据安全与隐私保护六个维度,对人工智能正确有序发展作出明确规范。其中重点强调,人工智能解决方案的开发及使用过程中,需严格保护用户的个人隐私、保障数据安全。同年,旷视又成立了由创始人、核心高管以及外部专家组成的人工智能道德委员会负责监督,确保旷视技术为社会带来积极影响,助力行业构建负责任的人工智能生态。

在2020年1月,旷视在人工智能道德委员会新增下设AI治理研究院,回溯全球十大AI治理事件,希望就全球人工智能治理共性问题与社会各界广泛沟通研究,合力构建人工智能健康生态。

针对社会各界尤为重视的人工智能发展涉及的数据安全和隐私保护问题,旷视在此前还联合北京智源人工智能研究院开展研究,预期将针对采集、传输、存储和使用四个环节的AI基础平台,形成一套面向数据全生命周期保护,并建立一套相关的AI数据安全与隐私保护机制。

旷视在AI治理领域的不断实践正是基于其对企业参与AI治理重要性的深入洞察。旷视联合创始人兼CEO印奇在《全球人工智能治理年度观察2019》发布的署名文章就曾提及,AI治理不仅是政府及相关机构有责任,企业作为AI技术研发与应用的主要力量和一线实践者应当有所作为,有所担当,要主动开展企业自治的工作。同时,作为人工智能时代的“驭火之术”,AI治理需要被更广泛的认知和践行,需要知行合一。

为此,旷视开始通过理性关注AI治理并展开建设性讨论、对重点议题进行深度研究、成立固定组织监督协同企业在日常经营中落实AI治理等方式,探索人工智能的治理工作。当前,AI从理论走向产业化,并迎来前所未有的发展机遇。在这过程中,人们也面临着数据使用、隐私保护、社会伦理领域提出的新挑战。而民法典人格权编草案在现行有关法律规定的基础上,进一步强化对隐私权和个人信息的保护,也加速构筑起个人信息安全防火墙。

在数据安全隐私保护上的合规合法方面,旷视一直是走在前列的。旷视相关负责人表示,希望中国民法典的诞生,能够唤起社会各界尤其AI界对公民个人信息及隐私保护的意识,最终将AI向善这件事付诸于实际的行动。

在未来,作为数据隐私保护等AI治理领域的引领者,旷视还将不断推进自身健康发展,并将旷视AI治理的研究成果与实践经验与各界分享,共同推动人工智能的合规与高速发展。

相关文章
热门文章
头条文章
重点文章
推荐文章
热点文章
关于我们|联系我们|免责声明|会展频道
冀ICP备2022007386号-1 冀公网安备 13108202000871号 爱云资讯 Copyright©2018-2023