文 | 四川省成都高新技术产业开发区人民检察院 高峰;四川省金堂县人民法院 李媓嫔
新一轮科技革命与产业革命如火如荼,人们在享受生成式人工智能带来的技术便利与行业繁荣之时,其隐蔽性、不确定性、偏差性所引发的算法歧视、数字鸿沟、科技伦理的风险也存在。虽然国际组织及各国对其治理模式有所差异,但促进科技发展、保障数字法治、防范安全风险是共同追求的价值目标。欧盟于2024年率先颁布全球首个人工智能立法——《人工智能法案》(以下简称《法案》),构建“全面监管、伦理优先”的监管模式值得借鉴。
安全维度:提升透明度与强化披露义务。透明度系生成式人工智能监管的重要组成部分,体现在信息公开、算法决策、理由告知层面,防范基础数据采集、清洗、标记缺乏可视性而产生的安全风险。欧盟制定的法规法案大多依循透明度原则,如《通用数据保护条例》要求数据领域个人数据处理需公开且透明之规定。
沿袭《可信赖人工智能伦理指南》之透明度条款,可溯源性、可解释性、可沟通性三重内涵在《法案》中一以贯之。可溯源性,面向数据标记与检测。人工智能系统在决策、运行过程中,标记、检测生成的内容,并对数据标记、数据检测记录在案。可解释性,对应“实质透明”。《法案》要求人工智能作出的决策若对人类产生影响,其能被理解、溯源、解释。除适用于“完全自动化”决策外,同时也适用于人类参与决策的“半自动化”决策流程。受影响人群虽无明确规定,但立足于欧盟“强监管、重保护”的治理理念,可以将其界定为任何可能受到人工智能决策影响的自然人。另外,解释的内容包括人工智能系统设计、部署原因、发挥作用、决策影响等,且需足够清晰且有意义。可沟通性,是“人—机”互动的直接呈现。主要指人类在同人工智能交互时应被告知交流沟通的主体是人工智能而非人类。另外,生成式人工智能系统的提供者也需披露基础数据信息、系统功能、相关限制以及可能产生的影响,保障用户知情权。
伦理维度:细化责任主体与落实问责机制。《法案》明确主体义务、加强责任配置、划分责任类型,为人工智能技术的伦理应用及监管提供了法治保障。其一,《法案》规定的责任主体多元。在人工智能全生命周期之“研发—部署—投放—流通”的“长链条”监管层面,《法案》对每类主体进行充分释义、明确对应义务规则,主要包括人工智能系统的提供者、部署者、授权代表、进口商、分销商、产品制造商等,避免人工智能过度拟人化导致责任不明晰。在偌大的责任关系网之中,人工智能系统肇始于提供者,故其承担的义务最为繁重,需在源头规避可能产生的风险,否则需承担相应责任。其他主体只需在各自阶段及所处法律关系之中履行自身应恪守的义务,同时负有避免损失扩大及降低风险的通知、撤回、召回等义务。其二,《法案》以高额罚款为兜底保障。尽管《法案》已然构建精密风险防控体系,但仍然设置严厉性惩罚条款作为制度保障。一方面,根据比例原则针对违反人工智能系统相关禁令的行为、违反《法案》中其他义务的行为、向监管机构提供有误信息的行为分别确立不同金额的罚款规则,且在具体罚款数额与参照比例之间,均以高值为准。另一方面,《法案》中确立的以该被处罚企业上一财年全球总营收额7%的最高级别罚款比例,甚至超过《通用数据保护条例》中4%的罚款比例,由此对欧盟市场的投资企业课以更高标准的审慎义务。
(来源:人民法院报)
..
治理理论
地方治理
数字治理
智能治理
国家治理