发布时间:2021-10-26 13:06:06
来源:赛迪智库
作者:魏书音
【CMIC讯】近年来,欧盟委员会不断加强人工智能监管,提出人工智能监管法提案(以下简称《提案》),加速构建人工智能规则体系,抢位国际规则话语权。一是确立人工智能系统风险分级分类管理规则。根据对个人基本权利产生威胁的程度,将人工智能系统风险分为不可接受风险、高风险、有限风险、最低风险四级,并制定与其风险相称的限制规范,确保其在预防和减轻安全风险所必需的最低限度内:不可接受风险等级系统禁止投放市场;高风险等级系统只有符合强制性要求和事前合格评估才能投放市场;风险有限等级系统需遵守透明度义务。二是构建欧盟层面统一人工智能监管体系。欧盟层面建立欧洲人工智能委员会,统筹国家间合作和法案实施。各成员国层面指定专门机构监督法案实施,负责监督调查人工智能安全事件并定期报告至欧洲人工智能委员会。三是明确权责分配规则。高风险人工智能系统产品提供者应确保其产品符合法案要求,进口商应确保系统提供者已执行合格评定程序,并向政府主管部门提供合理必要信息。高风险人工智能系统用户应严格遵循使用说明,发现安全风险或事件的,应中止使用该系统并通知提供商或分销商,并保留系统自动生成日志。四是设置严厉违规处罚措施。违反提案所规定的义务要求的,将面临最高三千万欧元或上一个财政年度全球总营业额6%的行政罚款,以较高者为准。
总的看,《提案》延续欧盟立法一以贯之的对个人权利强保护理念,首要目标是确保人工智能系统不会侵犯公民基本权利,包括人的尊严、个人隐私、非歧视等;力图建立欧盟内部协调一致的数据规则体系,防止欧盟内部市场基本要素分散,促进跨境产品和服务自由流通,同时确保公平竞争环境,增强欧洲人工智能竞争力和产业基础,以推动实践其数字单一市场的目标,实现以安全促发展目标。
目前,我国人工智能监管规范主要分散在电子商务、数据安全和投资等领域的立法中,主要针对定向推送、大数据杀熟等特定问题,有待形成系统的人工智能监管框架。建议:一是加强我国人工智能治理顶层设计,国家层面明确人工智能使用的基本原则和一般要求。二是借鉴欧盟比例原则、风险控制方法、沙盒监管、自愿认证机制等,明确开发设计要求和监督机制,实现对人工智能算法设计、产品开发和成果应用的全流程监管。加大对人工智能领域数据滥用、算法陷阱、侵犯个人隐私等行为的惩戒力度。三是促进人工智能行业自律。鼓励相关行业协会、标准化组织,制定人工智能技术标准和规范。倡导企业制定伦理规则、建立内部审查机制,进行自我监管。
责任编辑:言笑晏晏